Blog

Illusions et régulation de l'IA

Illusions et régulation de l'IA

Dimanche, 26 Mai 2024

Mythes et réalités de la souveraineté numérique

Esprit des Conventions de Genève où es-tu ?

Au-delà de l’esprit des Conventions et Protocoles de Genève qui ont prévalu pour l’établissement de règles internationales pour le « bien commun », désormais en matière de numérique, il s’agit de définir des conditions favorables à l’innovation technologique portée par les entreprises hégémoniques de la Tech (Big Tech) et pour ces dernières, de renforcer leur position dominante.

Tous les lieux emblématiques comme la Genève internationale, la France des Lumières et des Droits de l’Homme ou encore Bletchley Park en Angleterre, site historique du déchiffrement durant la seconde guerre mondiale et qui a hébergé l’AI Safety summit en novembre 2023, sont utilisés pour la promotion d’un numérique « éthique ».

Tous les mots liés à l’humanitaire, aux droits humains ou encore au futur de l’humanité sont accaparés par les dirigeants des multinationales de la Tech. Les propos du président de Microsoft tenus pour la première fois lors de la RSA Conference à San Francisco le 14 février 2017 en sont à ce titre, instructifs [1].

Imposer et accepter

Après avoir été focalisés sur le cyberespace et la confiance numérique, les débats internationaux portent aujourd’hui sur l’intelligence artificielle. Sous couvert de préoccupations concernant la sécurité, les Droits humains, le climat, la santé, ou encore par exemple la démocratie,  il convient dorénavant de développer l’acceptabilité sociale des technologies et de justifier leur utilisation généralisée.

En fait, les finalités de l’acceptabilité sociale sont toujours les mêmes, faciliter le déploiement des infrastructures et services numériques, imposer leurs usages permanents, surveiller et contrôler les utilisateurs.

Le nouveau Règlement du Parlement européen et du Conseil de l’Europe sur l’intelligence artificielle [2] qui vient d’être adopté, entre dans ce cadre. Au lieu de produire plus de protection des droits et des libertés, ce règlement permet d’imposer plus d’appropriation et d’exploitation des données, plus de consommation numérique, plus de surveillance et plus de contrôle social automatisés.

La magie de l’autorégulation

Divers instruments de nature juridique, comme d’ailleurs des auto-déclarations et des principes généraux sont régulièrement initiés et porté par des acteurs du secteur. Les principes sur l’IA de l’OCDE « encouragent une utilisation de l'IA qui soit innovante et digne de confiance et qui respecte les droits de l'homme et les valeurs démocratiques. Adoptés en mai 2019, ils établissent des normes pour l'IA suffisamment pratiques et flexibles pour résister à l'épreuve du temps » [3] . Ces principes sont accompagnés de Recommandations pour les décideurs politiques.

Le cofondateur directeur général d'OpenAI est entre autres, directeur général et membre du conseil d'administration d'AltC Acquisition Corp (institution dont la vocation est de « créer de la valeur pour nos actionnaires » [4] ) a signé la Déclaration sur le risque lié à l'IA [5]. Conscient que l’IA pourrait constituer une menace importante pour l'humanité, il appelle à la réglementation de l'IA par une agence internationale [6].

Les modèles économiques d’un monde hyperconnecté sont basés sur l’extractivisme informationnel et sur l’exploitation des données, non sur leur protection, ni d’ailleurs sur la protection des ressources environnementales et humaines.

Gouvernance de l’IA ou gouvernance par l’IA ?

La majorité des discours et initiatives sur l’urgence des besoins de réguler l’IA pour le bien de l’humanité, ne peut faire oublier que cela contribue à favoriser et à légitimer la fuite en avant technologique. Ce qui a pour corollaire l’augmentation de la collecte des données et de leurs traitements, la gouvernance algorithmique, la substitution de l’humain dans toutes les activités, au bénéfice de certains acteurs.

Soutenu par une économie de la promesse (plus de performance, plus de facilité, moins d’effort,…), le marché de la donnée et de l’IA continue de se développer [7].

Selon l’étude 2024 « L’Impact des IA génératives sur les étudiants » [8] révèle que 99% d’entre eux les utilisent. S’ils sont 88% à utiliser ChatGPT, tous ne sont pas en mesure de s’offrir des abonnements payants. 51% des étudiants indiquent qu’ils auraient du mal à se passer de ChatGPT et reconnaissent que ce logiciel les influence. Par ailleurs des outils existent pour faciliter l’expression des requêtes à des IA génératives [9] pour optimiser les performances de création de contenus, voire de contourner leurs limitations d’usage.

La dépendance à des fournisseurs de technologie et de services, qui maitrisent les infrastructures numériques (données, stockage, traitement, restitution) passe par une banalisation et invisibilisation des usages.

Des produits et services, des réglementations, des normes et des personnes concrétisent des pratiques numériques qui intègrent des systèmes d’IA incontournables. Cela en donnant l’illusion que les questions éthiques, environnementales ou de protection des droits humains et des libertés sont au cœur des initiatives alors qu’en réalité, elles ne sont qu’à la marge.

La fuite en avant technologique est le fruit d’une vision biaisée du concept de progrès technologique. Le solutionnisme technologique est au service d’une logique de performance économique et de puissance.

Le pouvoir de l’asymétrie des forces

Les conversations onusiennes dépendent de leurs soutiens financiers et sont bien encadrées par les acteurs politiques et économiques dominants. Sous couvert de multilatéralisme et de gouvernance multipartite, de grandes « messes » [10] sont organisées sans oublier d’y intégrer des représentants du monde académique, d’associations, de fondations, d’organisations non gouvernementales ou encore de think tank, dont on peut parfois se demander de qui ils sont les porte-paroles, de quoi ils sont le produit ou l’alibi.

Des initiatives internationales autour de l’IA dite « responsable, éthique, sûre, etc. » n’échappent pas aux jeux de pouvoir et à l’asymétrie des forces et acteurs en présence. Il suffit pour s’en convaincre de comprendre par qui sont portés les thèmes qui structurent les programmes de présentation, qui sont les intervenants et quel est leur parcours professionnel. La multiplicité des thèmes et le nombre des intervenants contribuent parfois à masquer la monoculture numérique à l’œuvre et est révélatrice des intérêts des acteurs les plus forts du secteur. La liste des sponsors de ces évènements est aussi significative. Le classement de ces derniers dans diverses catégories relatives à leurs implications facilite la compréhension de leurs poids et de leurs attentes en matière de retour sur investissement.

La souveraine dépendance

Le déploiement des infrastructures et services, la réalité des usages et l’adoption massive de l’IA entrainent un niveau de dépendance sans précédent des États, des organisations et des personnes à des fournisseurs de technologie. Cela rend obsolète toute velléité de souveraineté et oblige particuliers, entreprises et organisations publiques à fournir des données, à consommer du numérique, à payer pour les ressources nécessaires à leur dépendance.

Le siphonage de fonds publics, notamment via la recherche, la formation, le soutien aux jeunes pousses (start-up, censées se transformer en entités hautement spéculatives (licornes) capables d’être acquises par des Big Tech), suit le siphonage des données publiques. Tout cela est indispensable au développement de systèmes d’intelligence artificielle et à la suprématie des acteurs économiques et des pays dont ils sont les fleurons.

Une fois la soumission actée et contractualisée des utilisateurs devenus dépendants (et souvent dépossédés de leurs données et  de leurs savoir-faire),  les fournisseurs de service peuvent alors modifier les conditions d’accès et d’utilisation des services, imposer des conditions d’exploitation des données et augmenter leurs tarifs. Si elles existent, les possibilités de recours ou d’opposition des usagers sont généralement complexes et difficiles à réaliser, pour un résultat incertain.

L’actuelle vassalisation et la mise sous tutelle numérique sont efficaces. Croire que la régulation de l’IA contrebalancera le rapport de forces inégalitaires des acteurs en présence peut aussi relever de la fuite en avant technologique.

Notes 

[1] The need for a Geneva Digital Convention.

https://blogs.microsoft.com/wp-content/uploads/2017/03/Transcript-of-Brad-Smiths-Keynote-Address-at-the-RSA-Conference-2017.pdf

[2] https://data.consilium.europa.eu/doc/document/PE-24-2024-INIT/fr/pdf

[3] https://oecd.ai/en/ai-principles

[4] https://altcacquisitioncorp.com/about-us/

[5] Center for AI safety. Déclaration. « L'atténuation du risque d'extinction lié à l'IA devrait être une priorité mondiale, au même titre que d'autres risques sociétaux tels que les pandémies et les guerres nucléaires » https://www.safe.ai/work/statement-on-ai-risk

Se trouvent notamment parmi les signataires, les principaux dirigeants et créateurs des entreprises qui font de l’intelligence artificielle leur source de revenu.

[6] https://www.businessinsider.com/sam-altman-openai-artificial-intelligence-regulation-international-agency-2024-5?op=1

[7] A titre indicatif, selon l’étude AI statistics 2024 de la société AIPRM, le marché mondial de l'IA est estimé à 454,12 milliards de dollars avec un taux de croissance de 19 % par an, la valeur du marché de l'IA pourrait dépasser les 2 500 milliards de dollars d'ici à 2032. L'IA devrait contribuer à une augmentation nette de 21 % du PIB des États-Unis d'ici 2030.

https://www.aiprm.com/ai-statistics/

[8] L’étude « L’Impact des IA génératives sur les étudiants » a analysé l'impact des technologies d’IA génératives sur des étudiants de 4e année d’études supérieures suivant des cursus académiques variés : Management, Ingénieurs, Digital et création du Pôle universitaire Léonard de Vinci (France).

 https://www.rmconseil.eu/wp-content/uploads/2024/05/Etude-2024-Complete-L-impact-des-IA-generatives-sur-les-etudiants.pdf

« Cette étude est tirée du sondage réalisé lors du Hackathon transversal 2024 « L’intelligence artificielle, les IA génératives et leurs enjeux sociétaux ». Elle s’inscrit dans la dynamique du projet de recherche Hypérion initié par le Pôle Léonard de Vinci, RM conseil et le groupe Talan ».

[9] Ainsi par exemple, l’éditeur d'AIPRM, une extension Chrome, aide à créer des prompts (invites) pour ChatGPT afin de « créer tout ce que je veux en utilisant les meilleures idées d'une communauté d'experts ».

https://www.aiprm.com/

Le site informe « ChatGPT est fantastique, mais il n'est pas sans limites. Il existe des limites fonctionnelles et juridiques qui pourraient vous empêcher d'exploiter tout son potentiel. Mais, ne vous inquiétez pas, l'AIPRM a tout prévu avec l'AIPRM Cockpit™.Faites l'expérience d'une véritable liberté dans le traitement des demandes d'IA avec AIPRM Cockpit ».

[10] Comme par exemple IA for Good Global Summit. ITU (Genève, 19-31 mai 2024).

https://aiforgood.itu.int/

Pas de commentaire encore
Recherche