Blog

Crimes et châtiments à l’ère de l’intelligence artificielle

Crimes et châtiments à l’ère de l’intelligence artificielle

Mercredi, 11 Décembre 2024

La délégitimation de l’intelligence humaine

Réflexions sur l’IA et ses impacts sur notre manière de vivre et de faire société.

Extrait de la leçon d’honneur de la professeure Solange Ghernaouti donnée le 3 décembre 2024 à l’université de Lausanne.

D’usage banalisé et souvent invisible, l’intelligence artificielle structure notre société, oriente nos choix et conditionne nos vies.

Au-delà de mon expertise traditionnelle de la manière dont l’intelligence artificielle sert à attaquer ou à sécuriser des systèmes d’information, je souhaite partager avec vous quelques réflexions sur les risques auxquels la banalité de l’IA, nous expose, nous les humains qui tentons de faire société, dans un environnement toujours plus chaotique et complexe.

Il me semble que chacun d’entre nous, a déjà eu l’occasion ou la curiosité de se poser la question suivante :

Quel sens donner à l’informatisation massive des activités humaines ?

Celle-ci pouvant se décliner en :

Pourquoi informatisons-nous nos activités ?

Pourquoi d’autres que nous décident d’informatiser nos activités ?

Nul besoin d’être universitaire ou diplômé pour avoir le droit de penser et de débattre des impacts de la transformation de notre quotidien par le numérique et l’intelligence artificielle.

Nul besoin d’être expert pour s’interroger sur sa propre perception des risques et des menaces que ces nouvelles technologies engendrent dans les sphères privées et professionnelles.

Des études qui mettent en garde contre l’éradication possible de tout ou partie de l’humanité et de la dégradation critique des conditions de vie sur Terre par un mésusage de la science et de la technologie existent déjà notamment pour ce concerne la bombe atomique, les déchets nucléaires, la pollution aux plastiques, les atteintes à l’environnement et à la biodiversité.

Ce sont des risques que nous connaissons depuis longtemps déjà mais pour lesquels nous n’apportons toujours pas de solutions convaincantes pour un avenir désirable.

J’insiste, je parle bien d’avenir désirable et non durable, car pourquoi faire perdurer ce qui n’est pas souhaitable ? comme l’explique très bien le physicien Aurélien Barrau, professeur de l’Université de Grenoble.

Avec l’artificialisation du réel par le numérique, nous continuons à penser des stratégies de développement informatique et à déployer des infrastructures comme si nous étions dans un monde d’abondance et de stabilité.

Alors que chacun peut le constater, nous vivons dans un monde toujours plus instable et incertain, dans un monde en crise permanente et généralisée, dans un monde en guerre économiques et militaires, dans un monde où l’abondance de certaines ressources n’est plus garantie.

N’aurions-nous pas encore compris que le culte de la performance, qui met en compétition permanente c’est-à-dire en tension permanente les individus, les organisations et les États, ne peut que produire de l’instabilité, de l’insécurité, du burn out, des crimes et des guerres.

Comment ne pas comprendre que la performance est aussi synonyme de violence ? Il suffit pour s’en convaincre de considérer le management toxique de certaines entreprises au nom de la performance.

La performance engendre de la violence tout en créant de la fragilité, comme l’analyse avec justesse le biologiste Olivier Hamant, professeur et directeur de recherche à L’École normale supérieur de Lyon, et directeur de l’Institut Michel Serres.

Intelligence artificielle et environnement

Il est impossible d’aborder la thématique de l’intelligence artificielle en faisant l’impasse sur ses conséquences sur l’environnement. Même si le solutionnisme technologique tend à nous faire croire à la pensée magique qui voudrait que la technologie réponde à tous les problèmes du développement dit durable.

Entendons-nous bien, il ne s’agit pas de mettre au pilori l’intelligence artificielle, mais de comprendre son coût environnemental tout au long de son cycle de vie (fabrication, maintien, utilisation, élimination).

Son coût s’exprime en termes :

·      De ressources naturelles et humaines (artificialisation des terres pour construire les datacenters, déchets, pollutions, terres rares, métaux, béton, sable, eau, …)

·      D’infrastructures matérielles, logicielles et de télécommunication (processeurs, satellites, …)

·      D’infrastructures énergétiques (alimentation, refroidissement (électricité, eau)

Il s’agit aussi de savoir de quoi l’IA est le nom.

Quel est le projet politique et la vision du monde qu’elle sert ? Quelles sont les motivations de celles et ceux qui l’imposent et la contrôle ?

Ces questions ne sont que rarement abordées publiquement et font partie d’une sorte de zone d’ombre, dans laquelle on peut aussi inclure :

·      Les questions sur les usages militaires de l’IA.

·      Les questions sur l’emploi, dans un contexte où les IA contribuent au remplacement des humains.

Pourtant, le culte de la machine qui est indissociable de celui de la performance, de l’efficacité, de la rentabilité et qui avec l’obsession du calcul, se traduit dans nos produits technologiques.

Le culte de la machine conduit à l’obsolescence programmée de l’humain.

C’est que nous expliquait déjà au siècle passé, le philosophe Günther Anders (1902-1992), notamment dans ses essais sur L’obsolescence de l’homme dont le tome 2 s’ouvre sur ce paragraphe :

« Il ne suffit pas de changer le monde. Nous le changeons de toute façon. Il change même considérablement sans notre intervention. Nous devons aussi interpréter ce changement pour pouvoir le changer à son tour. Afin que le monde ne continue pas ainsi à changer sans nous. Et que nous ne nous retrouvions pas à la fin dans un monde sans hommes. »

Combien d’informaticiens, d’apprentis sorciers ou de petites mains de l’IA ont lu de tels livres de philosophie ?

L’intelligence artificielle incontrôlable ?     

De nos jours, la majorité des débats sur l’intelligence artificielle se focalisent autour de la question suivante :

Comment éviter que l’IA ne devienne incontrôlable ?

Avec comme réponse censée nous rassurer « mais non l’IA n’en est pas encore là, sous-entendu, actuellement elle n’est pas assez puissante (mais on y travaille) ».

Est-ce que tenter de savoir si l’IA sera un jour incontrôlable, est la question la plus pertinente à se poser aujourd’hui ?

A partir de quel diagnostic cette question est-elle formulée ? Qui parle ? Pour qui ? Pourquoi ?

Ne serait-ce pas une manière de détourner notre attention sur un futur suffisamment lointain afin d’éviter de traiter des questions préoccupantes, celles qui nous concernent tous et toutes directement ici et maintenant et pour longtemps ?

Se préoccuper aujourd’hui d’une super intelligence future où la machine ne serait plus pilotée par une personne, permet me semble-t-il, de justifier notre passivité vis-à-vis de la réalité du moment et des développements actuels relatifs à la dépossession et à la privatisation de nos données et de nos savoirs faires.

Cela permet également de légitimer notre laisser faire au regard de « la main invisible du marché » et de celle tout aussi « invisible des algorithmes » et d’expliquer notre adhésion à la croyance en la « destruction créatrice de l’IA ».

Puisque l’IA sert aussi à faire la guerre, à optimiser des actions criminelles ou terroristes, force est de constater qu’elle est un instrument pour soumettre, déstabiliser, manipuler, influencer ou contraindre.

Dès lors, peut-on encore limiter les débats sur l’IA à une question relevant du seul champ de l’éthique ?

Il est plus facile de succomber aux sirènes de l’IA que d’affronter les Techno milliardaires, Seigneurs de la Tech, qui ont le pouvoir (c’est-à-dire la possibilité de …) et la puissance (c’est-à-dire la capacité et les moyens) d’imposer des systèmes d’IA et les systèmes sociaux-techniques, afin d’augmenter leurs profits, accroitre leur pouvoir, leur puissance et leur emprise sur le monde.

Aussi séduisants que puissent être les récits des Seigneurs pour nous convaincre que l’absolutisme technologique et que l’idéologie dont ils sont porteurs vont sauver l’humanité et nous permettre dépasser notre condition humaine et de tuer la mort (courant du transhumanisme).

Tous les récits, slogans et formules choc, ne peuvent nous faire oublier les fondamentaux du capitalisme et de l’ultra néo-libéralisme de notre époque, à moins bien sûr de faire preuve d’une naïveté coupable ou croire que nous vivons au pays des bisounours dans une mondialisation heureuse.

Il est étonnant de constater à quel point le brouillard de l’IA obstrue la raison de certains acteurs y compris de chercheurs qui évoquent volontiers la bienveillance de l’IA et l’altruisme des données.

La mise en récits de notre avenir est toujours le même : le futur sera technologique ou ne sera pas !

Le story telling sur l’avenir de l’humanité s’appuie sur des promesses et des prophéties, sur des mythes et des légendes, qui semblent sortis des films de sciences fictions hollywoodiens à effets spéciaux.

La proximité de la Silicon Valley et des studios et parc d’attraction d’Hollywood n’est sans doute pas un hasard.

Au-delà des promesses

Pendant que nous laissons faire les géants de la Tech et les acteurs locaux qui leurs sont inféodés, des discours sur l’éthique de l’AI, sont énoncés, des sommets et des initiatives internationales sont organisés.

Des recommandations non contraignantes, des chartres ou des déclarations de principes sont émises.

Cela ressemble à s’y méprendre à un magnifique tour de prestidigitation, qui masque les motivations et qui invisibilise les enjeux stratégiques et les défis civilisationnels et existentiels engendrés par l’adoption massive de l’IA.

Serait-ce, par hasard, pour nous faire croire qu’il n’y a pas d’autres alternatives à cette manière de technologiser le monde ?

Serait-ce pour nous faire croire que les préoccupations légitimes d’ordre éthique de la population seraient entendues à défaut d’être prises en compte ?

Nous avons été témoin depuis l’avènement des Seigneurs de la Tech que ces derniers, pour décider de l’avenir de l’humanité, habillent leurs promesses et leurs actions de prédateurs par des préoccupations humanitaires et humanistes.

Ils savent ce qui est bien pour le commun des mortels et encore meilleur pour eux.

Ils ont été les fossoyeurs de la vie privée et qu’ils se sont “accaparés” les savoirs du monde, en pillant les données - par l’entraînement des modèles – en pillant des milliards d’éléments de textes et d’images créés par l’humanité, au mépris du droit d’auteur et des communs.

Des récits, des promesses et des prophéties, mais en fait pour quelles finalités ? Pour nous faire adhérer à la croyance du dépassement de l’humain par la technique ?

Le post humain sera-t-il une machine ?  Qui en rêve ?

Des promesses pour faire perdurer leurs privilèges de multimilliardaires ? Pour capter encore plus de richesses et les privatiser en toute légitimité ? Pour maximiser leurs profits aux dépens de l’intérêt général ?

Pour étendre leur pouvoir, par exemple en achetant la démocratie à coup de milliards en publicité et en communication, dans les réseaux sociaux ou dans les médias classiques ?

L’économie numérique (et de l’IA) est une économie de la promesse.

Si la promesse n’est pas tenue, c’est qu’il n’y a pas assez de technologie, qu’il faut toujours plus de technologie et toujours optimiser la performance technique.

Innovation et fuite en avant technologique

Le marketing de l’éthique et de la confiance fait partie des mantras de l’innovation et du progrès, c’est-à-dire de la croissance sans limite, portés par une poignée d’acteurs hégémoniques en situation de monopole et dont les champs d’action sont la terre, l’air, l’espace, la mer, le cyberespace, sans oublier désormais le corps et le cerveau des personnes.

Généralement, les discours sur la confiance contribuent à masquer les problématiques de sécurité ou à éviter que les utilisateurs se posent la question de savoir comment objectivement pourraient-ils avoir confiance dans des systèmes qui sont développés comme des boites noires dans le secret des affaires ?

Le mantra de l’innovation et du progrès technologique est promu comme valeur unique d’une société mondialisée alors que la fuite en avant technologique est au service de la performance économique. Ce qui est le fruit d’une vision biaisée de la notion de progrès.

Le numérique et l’IA ont aussi comme justification la baisse des coûts alors que les coûts de l’insécurité et des vulnérabilités dont ils sont à l’origine sont portés par les utilisateurs …

L’explosion des cyberattaques et du nombre de victimes témoigne que les cybernuisances, comme la cybercriminalité sont des phénomènes en pleine croissance qui ne sont pas maitrisés.

La surveillance, l’espionnage et la prise à distance du contrôle des machines sont constitutifs du mode de fonctionnement des systèmes interconnectés.

L’engouement pour l’IA s’appuie aussi sur la prédiction : ainsi par exemple, des systèmes de police et justice prédictives se répandent partout dans le monde.

Ce type de prédiction est ancré dans l’idée que la prévisibilité des comportements et des transactions (pour mieux les contrôler) doit passer par l’éradication du hasard.

C’est une approche déterministe qui est à l’œuvre : tout ce qui n’est pas prévu par l’IA n’existe pas. La réalité doit entrer dans les cases et les situations déterminées par l’IA.

Je ne peux m’empêcher de faire le lien de « La fin du hasard » avec l’idée répandue que l’avenir appartient aux technologies quantiques.

Le 7 juin 2024, les Nations Unies ont proclamé 2025 comme l'Année Internationale de la Science et de la Technologie Quantiques (AIQ). 

Le quantique, comme l’IA d’ailleurs, font désormais partie du champ d’action de l’UNESCO.

Le paradoxe est le suivant :

L’IA est là pour éradiquer le hasard, pour prédire, déterminer et contrôler alors que les principes de la physique quantique (au cœur des ordinateurs quantiques et de la cryptographie quantique) sont basés sur les propriétés d’indétermination, d’imprévisibilité et de non-déterminisme.

Le pur aléatoire et l’incertain donnent de la robustesse à la sécurité informatique.

J’ai eu l’occasion de participer au premier projet européen de cryptographie quantique (Projet Secocq, Secure Communication based on Quantum Cryptography, 2004 – 2008), j’étais alors la seule professeure qui n’était pas physicienne dans une équipe internationale de physiciens de renoms (dont le professeur Nicolas Gisin de l’Université de Genève), alors que le quantique et la cryptographie quantique n’étaient pas à la mode, et encore totalement inconnus de la majorité des investisseurs et du grand public, le projet a conduit à réaliser une première mondiale de faisabilité d’un réseau métropolitain couvrant le ville de Vienne, capable de générer et de distribuer des clés de chiffrement de manière quantique (QKD).

D’un point de vue de la sécurité, les évolutions des architectures de télécommunication et l’organisation des traitements informatiques dans le Cloud (informatique en nuage) la concentration, l’uniformisation des ressources sont des obstacles à leur sécurité. Comme nous avons pu le constater une fois de plus en juillet 2024, lors de la panne géante CrowdStrike qui a conduit à l’arrêt des machines tournant sous Microsoft Windows partout dans le monde.

Cette panne a effet systémique, n’a pas eu besoin de cybercriminels pour faire tomber les systèmes et mettre la société en pause. Ce n’est pas la technique ou l’IA qui est en cause mais notre manière de satisfaire nos besoins de performance et de rentabilité aussi en matière de cybersécurité, qui est délétère.

Ce que nous avons fait subir au vivant par la destruction de la biodiversité, nous continuons de le faire avec l’informatisation de la société et par notre manière de le faire.

Avec le numérique, nous ne créons pas un monde plus robuste même si la cyber-résilience est devenu un mot à la mode.

Le processus de délégitimation de l’intelligence humaine est à l’œuvre

Certains aimeraient nous faire croire, que la seule intelligence est celle des machines, que l’artificialisation de l’intelligence humaine par des artéfacts technologiques est plus performante que l’intelligence humaine, que cette dernière est vouée à l’obsolescence et n’a plus lieu d’être exercée.

Est-ce que raisonner ou créer des contenus se limiterait à taper des mots clés, à formuler des prompts ?

Si tel est le cas, cela relègue les personnes à de simples objets connectés, à être comme des robots de chair et de sang (pouvant être éventuellement upgradés – comme l’imagine Elon Musk), à être des entités au service des « machines ».

L’IA est un catalyseur de la paresse humaine qui a aussi le pouvoir de nous mettre sous hypnose et de nous infantiliser (de nous déconnecter de la réalité et de nous isoler, nous sommes seuls face à la machine).

Notre destinée serait-elle liée à notre capacité à utiliser des systèmes d’IA, à les alimenter, à être des travailleurs du clic ou à réaliser des bullshits jobs ?

L’obsolescence programmée de l’humain s’accompagne de celle d’une certaine forme d’humanité que nous avons mis des millénaires à construire.

La conception de services numériques prend en compte ce double impératif de connexion et d’usages permanents en créant des produits qui entraînent une consommation numérique exponentielle et addictive, cela dès le plus jeune âge.

En matière d’IAfication de la société, c’est toujours une logique de colonialisme qui est à l’œuvre.

Ce colonialisme numérique se déploie dans un esprit de compétition à l’échelle mondiale ou deux super puissances sont en capacité d’imposer leurs suprématie technologique et commerciale.

L’IA n’est pas qu’un sujet technique, il est aussi géopolitique.

Perspectives d’évolution      

L’évolution de l’espèce humaine dépendra de plus en plus de notre capacité à questionner notre dépendance à l’intelligence artificielle.

En effet, si non raisonnons en termes de risques, les perspectives mortifères de l’intelligence artificielle peuvent se résumer de la manière suivante :

·      Guerre de l’IA contre l’humain pour remplacer l’humain par des IA plus performantes, plus efficaces, plus efficientes …

·      Guerre d’une partie des humains supposément “augmentés” contre les autres “sans IA”

·      Guerre contre l’habitabilité de la planète pour les humains (là encore les plus défavorisés seront les premières victimes)…

Est-ce cela que nous désirons laisser en héritage à nos enfants ?

Le problème n’est pas d’avoir peur ou d’être pessimiste.

Le problème est d’être dans le déni et de ne pas voir les super-pouvoirs de l’IA, c’est-à-dire les pouvoirs de créer la vérité, d’influencer, d’imposer, de normer et de contrôler la conformité des comportements et de punir.

Le problème est aussi de continuer à faire comme on a toujours fait, c’est-à-dire, privilégier la croissance et la performance au détriment de la robustesse et du vivant.

Le problème est de répéter au lieu d’innover réellement.

Métas univers, des poules et un chien

Je me souviens d’une confidence d’un collègue japonais, chercheur dans un laboratoire (The Smart Life Science Institute) d’une grande université de Tokyo avec lequel je collaborais :

« Tu sais Solange, ce que je n’ai pas trouvé dans la vraie vie, je ne l’ai pas trouvé dans le cyberespace ou avec Internet ».

Nous étions dans la première décennie du 21ème siècle à Tokyo en plein cœur de la ville qui devenait smart dans un labo sensé façonner le futur.

Les dernières nouvelles que j’ai eues de lui, m’informèrent qu’il partait vivre dans un coin de campagne japonaise avec quelques poules et un chien, sans technologie. Il avait alors une cinquante d’années et grandi immergé dans des jeux vidéo et passé sa vie avec des ordinateurs.

J’ai perdu de vue cet ami, mais je n’ai pas oublié son idéal de poules et de chien … Il faut dire qu’à l’époque j’avais déjà le chien et qu’aujourd’hui je rêve aussi de poules et de nature, de nature naturelle et non virtuelle.

Se balader dans une forêt (pour de vrai) est plus important et meilleur pour la santé que d’avoir des lunettes 3 D ou un casque de réalité augmentée qui simulent la balade en forêt.

Sentir l’odeur des feuilles mortes, être en contact avec l’humus (racine commune au mot humanité) est plus important que d’être immergé dans des univers virtuels.

Percevoir directement par nos sens, par notre corps et par notre esprit et non via des capteurs et des systèmes d’IA interposés, est plus important que l’abstraction technologique, plus important que les metavers, conçus et contrôlés par ceux qui les proposent ou piratés par d’autres.

La cognition, le 6ème espace de guerre.

Le cerveau est le nouveau champ de bataille des industriels du numérique (réalité augmentée, casque, lunette, …) et les neurotechnologies, leurs armes.

L’adversaire n’est pas l’IA, c’est nous même avec notre appétence pour le sans effort, le divertissement, la ludification y compris la ludification de l’éducation et notre frénésie d’immédiateté.

L’IA est porteuse d’une idéologie de « tout est possible, immédiatement », cela ne peut que générer des désirs impétueux et des frustrations qui favorisent la fuite en avant technologique et la consommation numérique.

 « C’est le temps que tu as perdu pour ta rose qui fait ta rose si importante » explique le Renard au Petit Prince.

L’aurions-nous oublié ?

Sans doute puisque nous déléguons à des systèmes informatiques notre puissance d’être et d’agir.

Si l’intelligence artificielle est vénérée par certains, comme une divinité et que la technologie semble avoir un pouvoir démiurgique, l’enjeu de la spiritualité à l’heure de l’IA tient peut-être dans ses capacités à contribuer :

·      À nous faire accepter et supporter notre condition humaine ;

·      À nous insuffler le désir d’être pleinement vivant et donc mortel ;

·      À nous donner l’énergie d’être unique et entier sans être ni augmenté, ni dépossédé par la technologie ;

·      À ne plus ignorer que la Technologie insidieusement, à bas bruit, modifie notre humanité.

Crimes et châtiments

Je reviens au titre donné à ces réflexions « Crimes et châtiments à l’ère de l’intelligence artificielle » inspiré de l’œuvre de Dostoïevski

Pourquoi ce titre ? Parce que Dostoïevski évoque dans son livre des propos que nous pourrions faire nôtres pour ce qui concerne le numérique, j’en retiendrai quatre :

·      « L’ébranlement général de la société ».

·      « La formation progressive du surhomme qui acquiert sa stature définitive dans le crime, au mépris de l’homme ordinaire ».

·      « Notre fascination doublée d’amour-haine ».

·      « La vie dans sa boue et ses crimes, se passe ailleurs, à la périphérie ».

Le crime est la dépendance à l’intelligence artificielle.

Le châtiment est la dépendance à l’intelligence artificielle.

Pas de commentaire encore
Recherche