Blog

L’IA, un dopage d’État?

L’IA, un dopage d’État?

Jeudi, 3 Avril 2025

Questions ouvertes

Le 24 mars 2025 la presse suisse [1] informait de l’usage en test par le Conseil Fédéral d’un agent conversationnel d’intelligence artificielle, trois jours après qu’un communiqué du Conseil fédéral précisait « Lors de sa séance du 21 mars 2025, le Conseil fédéral a reçu des informations sur la stratégie pour l’utilisation de systèmes d’IA dans l’administration fédérale. Cette dernière va utiliser l’IA de façon fiable, développer des compétences en matière d’IA et optimiser les processus grâce à l’IA » [2].

Si comme citoyen, il est possible de se réjouir que les conseillers fédéraux soient familiers avec les outils numériques dont ils promeuvent l’usage [3], il est tout aussi nécessaire de s’interroger sur les conséquences de l’intermédiation par des systèmes d’IA des prises de décisions du CF, sur leur influence sur l’automatisation des processus de décision et sur la substitution du travail humain par un logiciel au sein de l’Administration pour gérer les affaires publiques.

La question de la finalité

La finalité énoncée dans la Stratégie pour l’utilisation de systèmes d’IA dans l’administration fédérale est d’« améliorer l’efficience : l’IA créera une plus-value. L’administration fédérale cherche à réaliser des économies de temps et d’argent grâce à l’utilisation de systèmes d’IA. Les collaborateurs peuvent par exemple être déchargés des tâches répétitives et utiliser ainsi leurs capacités de manière plus appropriée. » [4].

Remarquons l’emploi de l’assertion formulée au futur, « l’IA créera une plus-value », qui relève de l’idéologie de la promesse me semble-t-il. Le fait que « Les collaborateurs peuvent par exemple être déchargés des tâches répétitives » interroge. Seront-ils déchargés de toutes leurs tâches habituelles qui sont par nature répétitives ? Cela, avant d’être déchargés de leur emploi, ce qui leur permettrait alors d’« … utiliser ainsi leurs capacités de manière plus appropriée » en permettant à l’administration de réaliser des économies ?

Lorsqu’il s’agit d’améliorer l’efficience de l’administration publique, impossible de ne pas penser au « département de l’efficience gouvernementale » (D.O.G.E.) mis en place par le 47ème président des Etats-Unis et chapeauté par Elon Musk. Cette initiative est présentée comme étant une entreprise salutaire destinée à simplifier et à rendre plus efficient le gouvernement mais aussi à le faire entrer dans le XXIe siècle en profitant des compétences d’ingénieurs formés dans les start-ups de la Silicon Valley. Il s’agirait de « restructurer » l’État administratif, comme on restructure une entreprise [5].

La question de la logique de substitution et du solutionnisme technologique

Au-delà de la banalisation de l’usage de GovGPT, quels sont concrètement les objectifs assignés au déploiement de l’IA au sein de l’Administration fédérale : réduire les effectifs, augmenter la qualité du travail fourni, accroître la performance quantitative des personnels ? En miroir, les sous-entendus sont multiples et pourraient apparaître comme un mépris du travail réalisé dans le cadre de la haute fonction publique. Nos administrations et leurs employé·es sont-elles vraiment inefficaces ?

Quelles sont les compétences, les métiers, les emplois menacés par l’’IA?

Quelles sont les activités prises en charge et automatisées par l’IA ? Que dit l’exemple de la traduction assistée par l’IA du rôle des traducteur·ices, des compétences linguistiques des employé·es et des élu·es,  de la dimension culturelle sous-jacente à la maîtrise des langues.

Jusqu’où sera poussée la logique d’efficacité et de réduction des coûts et par conséquent du personnel ?

En matière d’informatique et de numérisation, l’approche est souvent celle du complément optionnel (qui devient vite la seule et obligatoire possibilité) ou l’assistance (qui se transforme en remplacement).

Difficile de voir la logique de substitution à l’œuvre dans la mesure où il existe une certaine invisibilité des prises de décision et du personnel administratif.

Comment mesurer l’efficacité et l’efficience du dopage institutionnel à l’IA s’il est impossible de mesurer la performance du système sans IA et qu’il est aisé de l’accuser d’inefficacité ?

Quels sont les indicateurs de rentabilité de l’Administration fédérale prend en compte pour justifier l’IA? Est-ce les mêmes genres d’indicateurs que ceux utilisés par le secteur privé et promus par les grands cabinets de conseils internationaux ?

Le rapport de mars 2025 de la société californienne Zscaler côtée au Nasdaq, sur la sécurité de l’IA affirme constater une augmentation de plus de 3000% de l’utilisation des outils d’IA par les entreprises [6], est-ce que le secteur public suit cette tendance ?

Concrètement comment le principe suivant est-mis en œuvre: « les systèmes d’IA doivent être utilisés de manière responsable, dans le respect des règles régissant la sécurité de l’information et la protection des données. La responsabilité incombe toujours à l’être humain et ne saurait être déléguée à des systèmes d’IA. »[7]?

Quelles sont les garanties offertes et les moyens disponibles pour vérifier que ces garanties sont effectivement bien respectées ?

Quelle est la transparence du mode de fonctionnement de GovGPT ?

Quelle est l’explicabilité des processus qui ont conduits aux résultats ?

Où se situe l’intervention humaine et qui intervient ?

La question de la diversité et des spécificités culturelles

Quelle peut être l’influence de GovGPT sur l’analyse de la position de la Suisse concernant les conflits armés actuels et les crises humanitaires ou encore par exemples, sur des questions concernant l’assurance maladie, l’agriculture de montagne alors que « la Silicon Valley refait le monde », comme l’analyse Olivier Alexandre dans son livre [8].

Comment la diversité culturelle et linguistique de la Suisse est prise en compte par un modèle (données – algorithmes) conçu à l’origine comme une boite noire par le géant de la Tech américaine Meta ? La façon dont les États évaluent l’importance de ces IA génératives n’est pas seulement liée aux mirages financiers qu’elles véhiculent ou aux promesses de création d’emploi qu’elles communiquent à travers leurs projets d’infrastructure (datacenter, puces, équipes, ...). Elle est aussi fortement liée au potentiel de soft power inhérent à leur capacité à murmurer à l’oreille des populations, des journalistes, des enseignant·es, des cadres dirigeants et des politiques.

Le fait que l’usage d’un agent conversationnel et d’un moteur de réponse, impose une manière particulière de formuler des questions, contribue à un certain formatage de la pensée pour répondre aux exigences du modèle, tout en effaçant la spécificité culturelle de ceux qui utilisent cet instrument.

L’invisibilisation de la capacité de l’IA générative à homogénéiser et à normaliser l’expression des requêtes et des réponses, est en soi, par conception informatique, une atteinte à la diversité de pensée des personnes et par conséquent à leur liberté d’expression.

La question des données d’entrainement et des biais

Comment s’assurer que les utilisateurs de GovGPT, ne soient pas à leur insu « des receleurs » en consommant des données pillées au mépris des droits d’auteurs qui ont servi pour entraîner les modèles de langage et développer les algorithmes sur lesquels se basent Gov GPT. Car même si GovGPT repose le modèle de langage LLaMA (Large Language Model Meta AI) développé par Meta (la maison mère de Facebook, contrôlée par Marc Zuckerberg) et rendu publiquement accessible (en open source), il n’y a pas de transparence ni de garanties sur les données utilisées, le mode de fonctionnement du modèle ou ses biais, lesquels ne sont pas visibles de façon directe mais dont on sait qu’ils existent par conception [9].

La question de la souveraineté et de la dépendance informatique

Avec GovGPT il semblerait que l’on considère comme des solutions sécurisées et « souveraines » ces modèles open source pré-entraînés par Meta ou d’autres entreprises privées, or avant d’être utilisées par GovGPT, elles intègrent des biais liés à leur entraînement.

Le fait que l’application GovGPT s’exécute en local sur une infrastructure de l’OFIT particulièrement protégée permet une meilleure maitrise des données, notamment celles que constituent les prompts que l’usage de solutions commerciales car les requêtes et les échanges restent dans un environnement en principe contrôlé par l’OFIT et qui devrait être exempt de tout dysfonctionnement, être imperméable aux fuites de données et être résistant aux cyberattaques potentielles.

Toutefois la problématique de la mise à jour des modèles d’IA, dont la dépendance aux éditeurs reste entière, même lorsque leurs solutions sont proposées en « open source » c.à.d. gracieusement. Or, l’économie numérique et de la donnée nous a appris que lorsque le service est gratuit, c’est que l’utilisateur est le « produit »[10].

Que deviennent les données y compris confidentielles et celles relatives à de nombreuses affaires traitées par le Conseil fédéral et qui sont soumises au secret de fonction, lorsqu’elles sont introduites dans GovGPT ?

Que deviendront-elles notamment lors des mises à jour et des futures améliorations de GovGPT ?

Comment le risque de perte de confidentialité est-il réellement maitrisé?

Après être devenue dépendante de Microsoft pour son système d’exploitation, pour sa suite bureautique-communication intégrant toujours plus d’IA, pour l’informatique en nuage, pour la distribution de logiciels open source (GitHub) ; à des fournisseurs de moteurs de recherche (Alphabet – Google, Microsoft Bing) et d’informatique en nuage (infrastructure hybride multi-cloud) [11]) ; l’administration fédérale scelle ici une nouvelle dépendance avec un fournisseur de modèle de langage pour l’IA générative (Meta).

Force est de constater que toutes nos activités numériques, y compris celles dopées à l’IA, sont plus que jamais soumises à des acteurs hégémoniques étrangers.

Perspective citoyenne

La dématérialisation à marche forcée des services publics et l'« IAfication » de l’administration publique à tous les niveaux exige à minima, plus de transparence, l’analyse des faits sur la manière dont les déclarations d’intention et les grands principes de souveraineté et d’éthique sont mis en œuvre dans l’utilisation de l’IA par l’administration.

Apporter des réponses convaincantes aux questions suivantes est urgent, à moins de soutenir une logique du fait accompli des usages de l’IA:

1.     Comment l’action publique comme les droits des usagers concernés se trouvent substantiellement affectés par l’IA ? 

2.     Comment le citoyen est informé que des décisions administratives le concernant sont partiellement ou entièrement automatisées, prises sur la base de résultats livrés par des algorithmes ou des systèmes d’IA surtout lorsque la maitrise effective de tout le cycle de vie de l’IA semble n’être que relative ?

3.     Comment sont traités tous les enjeux posés par le déploiement, dans les services publics, des systèmes d’IA et l’ensemble des risques associés ?

4.     Comment sont réalisées les évaluations des modèles, existe-t-il des tests contradictoires ?

5.     Comment sont signalés les incidents graves et qui en porte la responsabilité ?

6.     Comment est assurée (au sens assuranciel) la cybersécurité ?

7.     Quelles sont les moyens mis en œuvre pour continuer à garantir l’interaction entre citoyens et administration publique sans recourir à des outils numériques ?

8.     Comment les questions juridiques sont prises en considération comme par exemple les obligations issues du règlement sur l’IA adopté par l’Union européenne en 2024 (AI Act - Artificial intelligence Act [12]) pour encadrer le développement, la mise sur le marché et l’utilisation de systèmes d’IA ?

9.     Comment sont pris en compte les coûts énergétiques, environnementaux et humains de l’IA ?

10.  Quels sont les coûts directs et indirects de l’IA au sein de l’Administration fédérale ?

Dans GovGPT il ne faut pas sous-estimer le pouvoir de transformation de l’administration et peut-être même voir dans le nom de ces  Generative Pretrained Transformers (GPT) un signe de leur pouvoir transformatif. C’est pour transformer et modifier les propriétés d’un système que sont conçus les produits dopants, pour autant, ils ne sont jamais sans effets indésirables pour les corps qui y sont soumis et qui en subissent seuls les conséquences y compris sur le long terme.

***

[1] https://www.tagesanzeiger.ch/geheimprojekt-laeuft-seit-fuenf-monaten-bundesrat-experimentiert-mit-eigener-ki-220049235815

https://www.rts.ch/play/tv/19h30/video/19h30?urn=urn:rts:video:15533457

[2] https://www.admin.ch/gov/fr/accueil/documentation/communiques.msg-id-104596.html

[3] « Intelligence artificielle » – lignes directrices pour la Confédération Cadre d’orientation en matière d’IA dans l’administration fédérale

https://www.sbfi.admin.ch/sbfi/fr/home/politique-fri/2025-2028/themes-transversaux/numerisation-fri/intelligence_artificielle.html

[4] « L’administration fédérale définit les principes régissant l’utilisation de l’intelligence artificielle en son sein »

https://www.admin.ch/gov/fr/accueil/documentation/communiques.msg-id-104596.html

[5] https://legrandcontinent.eu/fr/2025/03/29/d-o-g-e-anatomie-du-coup-detat-numerique-delon-musk/

[6] https://www.zscaler.com/fr/press/new-zscaler-ai-security-report-shows-enterprise-use-of-ai-ml-tools-increases-by-over-3000-percent

[7] « L’administration fédérale définit les principes régissant l’utilisation de l’intelligence artificielle en son sein »

https://www.admin.ch/gov/fr/accueil/documentation/communiques.msg-id-104596.html

[8] Olivier Alexandre, La Tech- Quand la Silicon Valley refait le monde. Seuil 2023.

[9] https://www.ibm.com/fr-fr/think/topics/algorithmic-bias

[10] https://www.capital.fr/votre-carriere/quand-cest-gratuit-cest-que-vous-etes-le-produit-1298428

[11] https://www.newsd.admin.ch/newsd/message/attachments/87803.pdf

[12] https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=OJ:L_202401689

et https://artificialintelligenceact.eu/fr/l-acte/

Pas de commentaire encore
Recherche