Blog

Les intelligences artificielles ne sont pas des personnes
Artificialisation du réel & storytelling
Décohérence programmée
Évoquer le fait que l’IA puisse être capable de mentir (1). C’est lui prêter des intentions humaines. Un système d’IA n’est pas une personne, en revanche elle est conçue par des personnes et elle appartient à ses propriétaires. Ceux qui décident de la finalité des produits qu’ils créent et commercialisent le font selon des perspectives politique et économique particulières. La manière dont les résultats sont obtenus est toujours déterminée par des personnes, même si l’IA semble agir de manière autonome. C’est pour cette raison qu’il est important de questionner non seulement la finalité des produits mais aussi les objectifs et intentions de leurs propriétaires. Quels projets de société, quelles visions du monde servent-ils ? Quels rapports souhaitons-nous entretenir avec eux ?
Répondre aux requêtes des utilisateurs quelque soient les contextes et la pertinence des prompts ;
Les systèmes d’IA générative et ceux basés sur des agents conversationnels, entraînés et déployés en tant « qu'agents autonomes », ne sont pas capable de manigance à proprement parler. Ils poursuivent des buts assignés à leur conception comme par exemple: garder les utilisateurs captifs afin qu’ils utilisent le plus longtemps et le plus souvent possibles le produit; fournir des contenus plus ou moins plausibles, plus ou moins justes ce qui peut passer par annoncer des contre-vérités enrobées dans des explications plus ou moins vraisemblables; faire plaisir, contraindre, etc.
Des noms révélateurs
Ce qui a radicalement changé, ce n’est pas l’intention du code informatique, le code informatique n’a ni conscience, ni intentions, ni pensées, ses concepteurs oui. D’ailleurs pourquoi donner des prénoms humains à des systèmes techniques comme Claude d’Anthropic ou encore pour ne donner qu’un autre exemple de prénom féminin et masculin, citons Gemini de Google, qui vient de « Gémeaux » et qui signifie « les jumeaux ».
J’ai connu des personnes dénommées Claude formidables, d’autres beaucoup moins agissant de manière non transparente, manipulatoire et perverse. Faire référence à la gémellité pour une IA, sert à instaurer un statut d’égalité à l’humain, c’est aussi un moyen de lui accorder une confiance aveugle (si tu es mon double alors je peux te faire confiance). Le nom n’est pas neutre !
Les noms assignés ne le sont pas par hasard. Ils sont soigneusement choisis, ils s’inscrivent dans une vision stratégique et une approche produit particulières.
Colibri est le nom de l’appel à projets lancé par l’Agence de l’innovation de défense et la Direction générale de l’armement (DGA, France), pour des munitions téléopérées, faciles d’emploi et capables de neutraliser des cibles légères dans un périmètre de 5 km (2). En fait, il s’agit pour l’armée française, de disposer de drones tueurs chacun faisant sa part comme dans la légende amérindienne du colibri. Faire référence à un joli petit oiseau rendrait-il la mort plus acceptable ?
Une IA est un produit commercial
Pourquoi parler de l’IA comme si elle était une personne, sinon pour masquer son statut d’artefact non-humain fabriqué par des personnes pour atteindre des objectifs de performance et de rationalité économiques qui servent leurs intérêts.
Un mensonge est contraire à la vérité. Utiliser les mots de contre-vérité ou de post-vérité, c’est faire semblant de parler « vrai », comme si ce n’était pas mentir mais révéler une vérité autre, une vérité alternative, une vérité qui n’existe pas mais qui est rendue plausible par un tour de passe-passe algorithmique et pour laquelle il suffit de convaincre pour rendre sa perception réelle.
En stratégie militaire, tromper intentionnellement l’adversaire fait partie de « l’art » de faire la guerre, pour contraindre et gagner en supériorité. Il ne s’agit pas de mensonge mais de déception, de savoir leurrer.
Les IA ne mentent pas, elles créent des contenus inventés selon des procédés programmés informatiquement et différentes sources de données. Les IA sont des boites noires, l’explicabilité de leurs modes opératoires est souvent impossible. Dès lors pourquoi et comment faire confiance à des systèmes opaques capables de générer tout et n’importe quoi ? Systèmes dont on connait désormais les pouvoirs incitatifs, prescriptifs, injonctifs, contraignant et coercitifs, comme l’expliquait déjà en 2018 Éric Sadin (3).
Les systèmes d'IA existants sont sans contre-pouvoirs effectifs. Leur éventuelle régulation est compliquée et loin d’être aboutie.
Qui décide, qui est responsable ?
En matière de décision, d’imputabilité des responsabilités, savoir qui fait le job est primordial. Qui est vraiment responsable des conséquences concrètes de mauvaises décisions de l’IA, des biais, des inexactitudes, des distorsions ?
La dématérialisation des services, l’informatisation de toutes les activités s’inscrit dans une course en avant vers du tout numérique. L’IA n’est qu’un wagon de plus ajouté au train numérique dans lequel nous nous sommes embarqués sans savoir qui conduit le train, qui pose les rails et où ils vont.
La captation de l’attention, « l’engagement » des utilisateurs dans les services numériques, est toujours à l’œuvre avec l’IA qui en plus, transforme la captation du temps de cerveau disponible en captation du cerveau et de ses processus cognitifs.
Que reste-t-il de la liberté de pensée si l’humain est assujetti aux décisions prises par des systèmes d’IA ?
Cela soulève également la question du coût réel, de la valeur et du sens du travail intellectuel si des systèmes d’IA se substituent à celui des personnes. D’autres interrogations sont liées à l’employabilité et à la formation des individus.
Rendre l’humain faible et l’IA forte
Rendre l’humain faible et l’IA forte dans une relation de subordination et des rapports de force asymétriques est un projet politique qui existe dans la continuité des rapports de domination bien connus.
Comment exprimer son libre arbitre et son autonomie de pensée lorsque qu’il devient impossible de savoir si les informations nécessaires à la prise de décision sont justes ou fausses ?
Ne plus savoir distinguer ce qui est vrai ou faux contribue à rendre fou, à créer du chaos à l’échelle individuelle et collective. Force est de constater que la guerre cognitive existe déjà dans le monde civil comme dans le monde militaire. Elle passe aussi par des stratégies d’influence, de désinformation et des systèmes de croyance.
Nous assistons à un changement de paradigme, la science qui était censée produire des vérités prouvées scientifiquement, se mue avec l’AI en un système de croyance en la technologie toute puissante.
Ce n’est pas parce que les contenus générés par l’IA s’appuient sur des techniques issues de la science, qu’ils deviennent des certitudes scientifiques.
Les pourvoyeurs de la tech, se comportent comme des gourous, certains n’hésitent pas à se présenter ou à se laisser présenter comme des évangélistes, défendant une dimension quasi religieuse de leurs produits (Cf. culte de l’iPhone).
Avec la mondialisation, nous avons assisté à la délocalisation des usines, maintenant nous prenons acte de la délocalisation de nos cerveaux dans des prothèses numériques dont le contenu est hébergé à distance dans les data centers du cloud. Ce faisant, nous acceptons de contribuer à construire une société de la dépossession de soi, de la servitude et de la paresse.
Notes
https://time.com/7202784/ai-research-strategic-lying/
3 - « L’intelligence artificielle ou l’enjeu du siècle ». Éric Sadin. L’Échappée, 2018.
http://ericsadin.org/realisations/lintelligence-artificielle-ou-lenjeu-du-siecle