Blog

IA & Journée Internationale des droits des femmes

IA & Journée Internationale des droits des femmes

Dimanche, 8 Mars 2026

Le contexte

Le 6 mars 2026 se tenait au Palais fédéral à Berne, une session intitulée « Femmes & Intelligence artificielle : entre potentiel et risques quel avenir ? » inscrite dans le cadre des  célébrations de la journée internationale des droits des femmes. J’étais invitée à m’exprimer sur les risques relatifs à l’IA pour un Key note d’une dizaine de minutes. Voici ci-après la restitution des propos que j’ai tenus dans la salle du Palais du Parlement.

Au-delà de la dimension technique

L’intelligence artificielle ne se réduit pas à sa seule dimension technique, elle transforme notre manière de vivre, de faire société, de gouverner ou encore par exemple de faire la guerre. Ses usages affectent les individus, les organisations et les États.

Les impacts de l’IA et des infrastructures informatique et énergétique nécessaires à son fonctionnement sur l’environnement sont considérables.

Par conception l’IA est un consommateur de ressources, y compris de ressources humaines et c’est à partir de ce constat que j’aborde dans le cadre de la journée internationale des droits des femmes, la problématique des risques non pas pour parler de l’avenir de l’IA mais du notre, celui des personnes humaines au sens large.

Au-delà du genre des personnes, nous sommes tous concernés par le fait que l’IA est un instrument de pouvoir et de domination pour ceux qui la conçoivent et l’imposent.

En fait, l’IA permet de renforcer l’asymétrie de pouvoir et les inégalités qui existent entre ceux qui l’utilisent et ceux qui la contrôlent.

Ainsi, il est urgent de questionner les manières dont l’IA renforce et pérennise les dominations parfois symboliques et inconscientes, les stéréotypes mais aussi l’exploitation économique des individus.

L’intelligence artificielle internalise les discriminations dans du logiciel tous en les légitimant sous couvert de démarche scientifique qui s’appuye sur des mathématiques et des statistiques. Cette croyance en un absolu de rigueur scientifique rend les décisions prises par les systèmes d’intelligence artificielle et les actions qui en découlent non questionnables. Alors qu’en réalité elles résultent traitements opaques alimentés par des données non vérifiables développés dans le secret du monde des affaires.

Le biais dans les algorithmes sont des bais des institutions et des personnes qui les conçoivent.

Le brouillard de l’IA les masque.

L’IA n’est pas conçue pour inventer un avenir plus équitable pour tous et toutes, mais pour faire dépendre l’action humaine d’infrastructures technologiques de contrôle.

L’éventuelle possibilité d’émancipation par l’IA des individus, ne peut être que superficielle et à la marge, en corrigeant à postériori des biais identifiés.

Les infrastructures numériques ne sont pas garant de l’égalité des droits.

Nous ne pouvons ignorer que les IA sont bâties à partir du pillage des données, des œuvres d’artistes, de l’exploitation des savoirs communs et de leurs privatisations. Les grands modèles des langages font fît du droit d’auteur et du consentement des auteurs et artistes.

Le Code informatique n’est pas la Loi.

Aussi il est légitime d’interroger les lien de dépendance et d’assujettissement à l’intelligence artificielle et à ses fournisseurs comme je le présente dans mon dernier roman « Mémoire d’un Robotoïde – Je vous parle depuis votre futur» qui vient de paraitre aux éditions Slatkine. Ce livre questionne nos rapports complexes à l’IA et les manières dont elle transforme nos conditions de vie et à quel prix.

A propos de notre acceptation inconditionnelle de l’infiltration de l’IA dans toutes nos activités humaines, même les plus intimes, nous pouvons affirmer que les dés sont pipés, les mailles du filet du numérique sont serrées et que les injonctions à se soumettre à la logique de l’IA et de ses fournisseurs sont fortes.

Il est difficile d’envisager de passer au travers des mailles du filet tant que nous sommes persuadées que cela serait douloureux, voire dangereux de s’en dégager. Benoite Groulte dans son ouvrage Mon évasion nous rapellait  : « Le seul avantage de l’inconscience et de la docilité, c’est qu’elles permettent de vivre à peu près n’importe quoi sans trop de dégâts ».

Docilité, croyance, violence, illusion d’égalité

Aujourd’hui notre docilité et notre subordination volontaire à l’IA, notre croyance dans une IA salvatrice de tous nos problèmes, engendre d’ores et déjà des dégâts en termes de démocratie, de souveraineté, d’emploi, d’environnement ou encore par exemple de Droits humains. Malgré le recours souvent abusif par les fournisseurs de technologies au vocabulaire lié aux droits fondamentaux, à l’éthique ou à l’humanitaire, la vocation première de l’IA n’est pas d’engendrer plus d’égalité ou moins de misogynie par exemple.

L’IA est catalyseur d’inégalités et de discriminations et nous nous persuadons que l’humain et faible et que l’IA est forte.

Il est donc important de dénoncer, lors de la journée internationale des droits des femmes, la couche supplémentaire d’invisibilité que permet l’IA pour contribuer à maintenir une grande majorité des femmes dans un état d’infériorité permanente, de domination ou d’humiliation.

Qui peut affirmer qu’une IA qui permet de déshabiller des femmes et de produire des contenus de nature sexuelle et sexiste, contribue à plus de dignité et de respect ?

Il ne s’agit pas de l'effacement des femmes de l'espace numérique, mais de l'expression de besoins de dominer, de posséder l'autre, de l’asservir. Les outils numériques et en particulier l’IA leur donnent le pouvoir et leur permettent de reproduire une violence déjà présente dans la vie réelle.

Ne commettons pas les mêmes erreurs que les optimistes qui vivent dans l'illusion que l'égalité est acquise et que l'histoire ne revient pas en arrière, que l’IA est égalitaire et juste. Rien n'est plus précaire que le droit des femmes, le droit à la différence et le respect du droit, y compris du droit international comme en témoigne régulièrement l’actualité.

Perspectives des pièges et des questions

En termes de perspectives d’avenir je retiendrai qu’il faille éviter de tomber dans les principaux pièges de l’IA :

Le piège de la responsabilité et de la déresponsabilisation

Dans son livre « The Unaccountability Machine : Why Big Systems Make Terrible Decisions  —and How the World Lost Its Mind » (Profile Books, 2025) Dan Davies nous met en garde sur le fait que :

« Le rôle de ceux qui utilisent l’IA n’est pas de superviser le travail de l’IA, mais d’endosser la responsabilité de ses erreurs. L’IA ne peut pas faire votre travail, mais un vendeur d’IA peut convaincre votre supérieur de vous licencier et de vous remplacer par une IA incapable de faire le même travail. » (piège de la responsabilité).

Par ailleurs notre appétence pour le moindre effort pourrait nous inciter à penser qu’il n’est pas nécessaire de s’employer à résoudre des problèmes puisque l’IA peut s’en charger ou s’en chargera demain (piège de la déresponsabilisé). Cela pourrait aussi nous inciter à investir dans des data centers pharaoniques et dans en une fuite en avant technologique au détriment de la maitrise des problèmes présents par une informatisation raisonnée et raisonnable de la société.

Le piège du lapin pris dans les phares

Par cette fuite en avant et les discours sur le risque existentiel à long terme que fait courir l’IA à l’humanité, les questions d’inégalité sont occultées. Par ailleurs, la doxa que l’IA est inévitable empêche de penser que d’autres voies sont possibles tout en faisant douter du droit des personnes à résister et à penser les conditions et les capacités à pouvoir résister

Le piège d’une vision déformée et erronée de ce que l’on attend de l’IA

L’intelligence n’est pas une ressource dont on peut augmenter la quantité grâce aux données et à la puissance de calcul. Il ne faut jamais oublier que l’IA est le produit de ceux qui l’ont programmé à leur profit.

Le piège du fantasme de la performance, de l’automatisation et de l’augmentation s’inscrit souvent dans une la logique de remplacement de l’humain par la machine a comme corollaire des licenciements massifs au prétexte de l’IA. Dans ce contexte l’humain n’est pas augmenté mais c’est la machine qui l’est !

Le piège qui consiste à remplacer la foi en l’humanité en la foi en la technologie. L’emploi est délocalisé, externalisé dans l’IA. Les assistants IA sont des versions bon marché qui font pression sur les salaires. L’IA contribue à instaurer un régime de peur car l’humain devient remplaçable par une IA et il le sait, il se soumet. Même si l’IA produit une moindre qualité, le compromis qualité-prix joue en défaveur de l’humain.

Si l’IA ne serait pas une arme entre les mains des puissants de quel projet politique est-elle le nom ?

Y aura -t-il bientôt une Journée internationale des droits du vivant à ne pas être absorbé par le trou noir du contrôle algorithmique et de la surveillance informatique ?

Un pouvoir sans contre-pouvoir

Même s’il arrive que des services soient déclinés par des acteurs aux slogans et motivations plus acceptables socialement ou qu’il existe des acteurs soucieux des questions de justice sociale et environnementale, la majorité des fournisseurs de technologie numérique ne représentent pas le peuple, ni ses intérêts. La plupart font partie d’une nouvelle aristocratie numérique constituée par quelques privilégiés qui détiennent les infrastructures numériques et le pouvoir associé, sans qu’il existe un réel contre-pouvoir. Cette nouvelle élite du code, se décline en une armée d’ingénieurs, de managers, de consultants, de chercheurs et d’enseignants qui contribuent à orienter les choix politiques et sociaux.

Croire que la régulation de l’IA contrebalancera le rapport de forces inégalitaires des acteurs en présence relève d’un déni de la réalité géopolitique et économique qui s’inscrit dans la foi en une fuite en avant technologique. Cette dernière s’appuie sur la croyance dans l’idée que les questions morales et politiques peuvent se transformer en questions techniques pour faire disparaître leur aspect moral et donc politique. Dans son ouvrage paru en 2022, Voices in the Code : A Story about People, Their Values, and the Algorithm They Made David G. Robinson, met en évidence le fait que plus il y a de décisions prises de manière algorithmique, plus il y a d’informatique, moins il y a de démocratie.

De nouveaux droits à revendiquer

Revendiquer le droit de ne pas être dépendant et sous contrôle de l’IA devient une nécessité existentielle comme l’est tout aussi le droit à ne pas vivre à l’ère de l’obscurantisme algorithmique et du totalitarisme technosolutionniste.

En s’inspirant des luttes des femmes pour leurs droits, nous pourrions peut être en mars 2026 oser nous opposer à la culture de la complaisance et à celle de l’acceptation passive et non critique de l'IA. Des biais structurels sont intégrés dès la conception des services offerts par l'IA, y compris dans ceux qui régissent les infrastructures critiques (éducation, santé, justice & police, etc.) dont nous sommes dépendants et la gouvernance algorithmique de nos espaces publics et privés.  

Recherche