Blog

L'IA amplifie la perte de souveraineté numérique

L'IA amplifie la perte de souveraineté numérique

Lundi, 3 Juin 2024

Comment l’intelligence artificielle devient un catalyseur de nuisance

Banalisation et manipulation

La banalisation des usages de l’IA renforce les capacités des opérations de manipulation de l’opinion de la population et de ses dirigeants économiques et politiques.

Qu’il s’agisse de manipulation d’information, d’attaques en déni de service pour rendre indisponibles des ressources et porter atteinte à l’image des organisations ciblées, qu’il s’agisse de la diffusion d’informations confidentielles exfiltrées ou encore de sabotage, le numérique et l’intelligence artificielle, sont des facteurs de déstabilisation et de fragilisation de la société.

Au-delà de la cybercriminalité, ce sont des opérations d’influence et de désinformation qui sont de plus en plus dévastatrices.

Biais, erreurs et performance criminelle

Les services informatiques basés sur l’IA ne sont pas immunisés contre les biais, les erreurs de conception, de gestion et d’utilisation ni d’ailleurs, de leur infection par des logiciels malveillants. De plus, ils peuvent aussi être conçus à des fins malveillantes.

Du point de vue d’un cyberattaquant, en matière d’intelligence artificielle, les compétences, les techniques, les moyens et les procédures se développent et s’améliorent pour compromettre des systèmes et des réseaux.

L’IA est utilisée dans toutes les phases de développement et de réalisation des cyberattaques. Elle peut être efficace pour l’hameçonnage et l’ingénierie sociale, exploiter des failles de sécurité et contourner des protections. Elle permet de créer du code malveillant plus facilement, plus rapidement avec ses capacités à générer des logiciels malveillants et de les améliorer pour les rendre plus difficile à détecter pour des mesures de cybersécurité. L’IA contribue aussi à réduire les risques de détection, de caractérisation et d’attribution des cyberattaques.

Des outils issus de l’IA peuvent être considérés comme des facilitateurs du passage à l’acte et comme des amplificateurs de la performance criminelle, que celle-ci s’exprime dans le cyberespace ou dans le monde réel ou dans les deux à la fois. Ils sont aussi des facteurs de risques pour la démocratie [1].

Facteur d’optimisation de la malveillance

L’IA est également un facteur d’optimisation d’actions relevant du terrorisme et de l’extrémisme violent. Dans ce contexte, l’IA peut servir pour :

·       La propagande, l’endoctrinement, la radicalisation (spécialisation, personnalisation).

·       Renforcer la présence des acteurs sur les médias sociaux (bots conversationnels).

·       Pour créer des textes, des audios, des vidéos synthétiques et des récits convaincants.

·       Le recrutement, la personnalisation des contenus et des méthodes de recrutement (traduction, abolition de la barrière linguistique).

·       Accroître la capacité à nouer des relations individuelles et en particulier à atteindre des acteurs isolés susceptibles d'être acquis à une cause.

·       L’expression de revendications.

·       La formation pour réaliser des actions dans le monde physique et virtuel.

Facteur de risque pour la sécurité et la souveraineté numérique

La majorité des pays n’est pas en situation de souveraineté numérique et est dépendante d’entreprises hégémoniques étrangères pour les données et applications vitales à leur fonctionnement. De plus, tous les pays sont à la merci de cybermenaces et d’acteurs qui savent exploiter leurs vulnérabilités numériques.

Le rapport 2024 des risques globaux [2] du World Economic Forum identifie comme principaux risques ceux liés au développement des technologies d'avant-garde, à l’accélération technologique et à l’évolution de la concentration et des sources du pouvoir géopolitique.

Les infrastructures numériques, les données et l’IA font partie des instruments du pouvoir et sont au cœur des questions de géopolitiques et de souveraineté des pays. Elles sont parties prenantes de tous les conflits actuels, de la guerre économique et militaire. La supériorité technologique permet d’affaiblir et de contraindre des adversaires et d’atteindre des objectifs stratégiques des États.

L’IA peut augmenter et amplifier les menaces existantes et générer de nouvelles menaces relatives à la défense nationale, la sécurité physique, la cybersécurité, les infrastructures critiques (santé, éducation, etc.) [3].

Les infrastructures, services, les données numériques comme l’IA et le quantique, y compris la cryptographie post quantique, font parties des instruments du pouvoir des grandes puissances.

Conséquences d'un monde technopolaire et technodépendant

De manière concomitante à la dépendance au numérique, le pouvoir de la plupart des gouvernements s’appauvrit au bénéfice de celui des géants de l’Internet et des pays dont ils émanent. Sans réel contre-pouvoir, en l’absence de régulation et de contrôle efficaces, ces derniers sont déjà des acteurs incontournables de la géopolitique du XXIe siècle.

La bataille des données est déjà gagnée par les acteurs hégémoniques qui les possèdent, ce qui leur permet de développer des systèmes d’intelligence artificielle (pas de données, pas d’IA). La bataille de l’IA se place également sur le terrain de la fabrication et de l’utilisation des processeurs ainsi que sur celui de la maitrise des ressources indispensables (centres de données, ressources naturelles, énergétiques et humaines).

Les USA et la Chine se disputent la première place, sans que les questions d’ordre environnemental et écologique (consommation et épuisement des ressources, pollution, déchets, …) soient au centre de leurs préoccupations de leur quête de puissance via l’intelligence artificielle.

Souvent dépossédés des données et des infrastructures numériques, les autres pays sont à la merci de ces deux pôles de développement technologiques en passe de devenir des piliers incontournables de la sécurité, de la défense et de l’économie.

Devenir des pourvoyeurs de personnes bien formées qui développent des systèmes d’IA pour le compte des géants étrangers de la Tech dont la volonté de domination est connue, ne devrait être ni une finalité, ni une fatalité.

Perspectives

En matière de souveraineté et d’intelligence artificielle, être en mesure d’apprécier ce qui est techniquement possible, économiquement faisable et socialement et démocratiquement souhaitables, est impératif.

Aussi est-il urgent de savoir qui maitrise et contrôle les systèmes d'intelligence artificielle que nous utilisons et comment ils modifient nos modes, collectif et individuel, de décision et d’action.

Identifier les relations que nous avons, exprimer celles que nous voulons avoir avec l’intelligence artificielle et leurs fournisseurs, nous oblige à comprendre les changements opérés par son adoption massive ainsi que la manière dont elle change les structures et les acteurs du pouvoir et impacte la société civile.

Notes

[1] « Gouvernance algorithmique et démocratie, des finalités divergentes ? ». S. Ghernaouti. Académie suisse des sciences humaines et sociales. https://www.sagw.ch/fr/assh/actualites/blog/details/news/gouvernance-algorithmique-et-democratie-des-finalites-divergentes

[2] https://www3.weforum.org/docs/WEF_The_Global_Risks_Report_2024.pdf

[3] Le chapitre 4 de mon livre « Cybercriminalité. Comprendre. Prévenir. Réagir » (Dunod 2023) aborde ces problématiques.

Pas de commentaire encore
Recherche