Blog

Intelligence artificielle & journalisme, métiers et médias
Métiers du journalisme
Comme beaucoup de métiers, ceux liés au journalisme et aux médias sont concernés par l’informatisation de la société. Au-delà des mutations des manières de faire, des transformations des comportements ou encore par exemple, des modifications des sources de revenus des médias, ce sont des défis civilisationnels majeurs auxquels nous confrontent l’intelligence artificielle dans les métiers des médias, de la création et de la culture mais pas seulement.
Impossible d’ignorer les bouleversements qu’imposent l’IA dans les tâches dévolues au management d’entreprise et les changements organisationnels, collectifs et individuels qui en découlent.
S’il est important de comprendre l’usage de l’IA dans les métiers du journalisme, il est encore plus indispensable de s’interroger sur la façon dont l’IA façonne les conditions de les exercer.
· Est-ce que l’IA dans la gestion stratégique et opérationnelle des médias permet réellement aux journalistes de réaliser leurs tâches dans des conditions, plus favorables, sachant que l’IA est conçue et utilisée pour automatiser et répondre à des critères de performance et de rationalité économique ?
· Concrètement comment l’IA permet aux journalistes d’être davantage en lien avec le réel, le sensible et l’expérience du terrain proche ou éloigné, l’expérience plurielle qui les confronte à la diversité et pluralité des personnes, situations et points de vues ?
· Est-ce que leurs conditions effectives de travail favorisent la production d’informations vérifiées et authentiques ?
· Est-ce que le temps et les ressources nécessaires aux investigations approfondies leurs sont octroyés ?
Nouvelles conditions d'exercer un métier
Si comme le prétendent les fournisseurs de systèmes d’intelligence artificielle, ceux-ci permettent d’augmenter les capacités humaines pour les dépasser, alors tout le monde est concerné et personne n’est épargné par l’adoption de l’IA dans les organisations. Introduite souvent comme « simple assistant » pour réaliser des tâches, nul ne peut encore ignorer que l’IA contribue entre autres aussi à embaucher, surveiller, contrôler et licencier des personnes. Les techniques d’IA sont embarquées dans un grand nombre de programmes informatique que nous utilisons souvent sans vraiment le savoir.
De tout temps l’automatisation a contribué à aller plus vite, à produire plus et à réduire les ressources humaines nécessaires pour la réalisation des produits et services concernés. Performance, rationalité, efficacité et efficience sont les principaux moteurs des adoptions technologiques. Ainsi, certains métiers se transforment, d’autres disparaissent alors que de nouveaux émergent. L’impact de l’IA sur l’emploi et l’employabilité des personnes est une préoccupation majeure et les risques sociaux associés, une réalité.
Nul doute que confier le travail jusque-là réalisé par un humain à une machine modifie la nature du travail de la personne (si l’interaction humain-machine est toujours nécessaire). Toutefois, si la machine se substitue à la personne, cela rend obsolète la légitimité de la compétence humaine.
En 2020 en Corée du sud, un clone numérique d’une présentatrice a réalisé un journal télévisé pour la chaîne MBN [1]. Cela a démontré la faisabilité d’une telle émission, son acceptation sociale et l’idée de la nécessaire optimisation des ressources tout en masquant le fait qu’un avatar ne prend pas de congés, ni ne tombe malade (à moins qu’il ne soit piraté).
Le visible de l’IA générative
Contrairement aux usages et applications invisibles des logiciels d’IA intégrés depuis plusieurs années dans des services courants, l’IA générative (IAGen, dont les interactions et les résultats produits sont directement et immédiatement perceptibles et exploitable), a transformé les pratiques numériques.
Des "moteurs de réponses" se substituent aux moteurs de recherche du Web. Toutefois, malgré des résultats parfois époustouflants des IAGen, elles peuvent être qualifiées d’IA de la soumission puisqu’elles restreignent notre créativité à l’expression de requêtes et amputent tout ou partie de nos capacités à avoir des idées, à analyser et à créer avec notre esprit et notre corps.
Nos mains seraient-elles désormais condamnées uniquement à toucher un clavier et un écran ? Avec les interfaces neuronales, capteurs visuels et autres implants cérébraux aurions-nous encore besoin de nos mains pour interagir avec des IA ?
Générer en transformant
Un chat est un agent conversationnel, c’est-à-dire un logiciel qui peut générer des contenus, en fait « dire » ce qu’il veut sans devoir se justifier. Sa finalité est de générer (G pour Generative), produire des contenus à partir de mots énoncés par l’usager et à partir de données sur lesquelles il a été préalablement entraîné. Le logiciel exploite des données captées voir pillées. Il produit des réponses à partir de son entrainement (P pour Pretrained ) et de la façon de traiter des données selon un algorithme déterminé par le concepteur. Données et algorithmes de traitement sont le plus souvent des boites noires généralement protégées par le secret des affaires, à moins qu’il ne s’agisse de données et de modèles mis à disposition en open source [2].
La nature du traitement informatique conduit à transformer des données (T pour Transformers). Les données sont transformées, elles n’ont pas forcément de lien avec le réel du fait du processus de génération, de la conception du système et selon une approche probabiliste. Ce qui rend inévitable les incohérences des réponses, alors dénommées hallucinations. A cela s’ajoute les biais issus de la qualité et de la pertinence des données et des processus d’agrégation des données prosaïquement dits « d’apprentissage » conçus par des personnes non immunes aux biais et qui projettent leur manière d’appréhender le monde pour produire des données plus ou moins vraisemblables.
Assistant et assisté
En attendant la "perfection algorithmique" sommes-nous tous condamnés à être des travailleurs du clic et des prompteurs d’IA génératives ?
Pour des professionnels, il semble qu’utiliser des systèmes d’IA génératives ressemble parfois à interagir avec une personne « stagiaire » à qui on lui laisse faire le boulot (pour qu’elle apprenne), le résultat peut éventuellement être contestable (c’est normal, il s’agit d’un apprentissage), le rendu même parfois médiocre est accepté, rattrapés que sont les professionnels par l’urgence du quotidien, le nombre de tâches à réaliser auquel s’ajoute en plus, la charge d’interaction avec le stagiaire. Ainsi de nombreux professionnels (journalistes, médecins et personnels soignants, etc.) alimentent les systèmes d’IA. Ils leurs transfèrent leurs compétences par la captation de leurs données et savoir-faire, ils n’ont souvent pas le choix d’un consentement libre et éclairé. En les utilisant, ils continuent à les améliorer pour que l'IA-stagiaire apprenne de ses erreurs. Le processus est itératif jusqu’au moment où il est estimé que les professionnels ne sont plus nécessaires, jusqu’à ce que les usagers soient suffisamment habitués à la qualité des résultats produits par l’IA, qui peut être excellente ou toute relative.
Avant d’être complètement évincés, ces professionnels, en jouant le jeu de l’IA, deviennent progressivement et souvent à leur insu, des assistés-assistants de l’IA, au travail précarisé, mobilisé à la tâche, éventuellement sous-payé. Le travail perd son sens, l’humain son intérêt pour le travail bien et sa joie de l’avoir fait.
La logique de complémentarité humain-machine est remplacée par la logique de substitution.
La formation initiale ou continue des personnes n’y peut rien changer. Nous sommes tous enjoints de devoir nous adapter de manière fluide, agile et instantanée à ces nouveaux instruments qui sont bien plus que des outils puisqu’ils conditionnent notre vie et nous soustraits à l’exercice de nos capacités d’analyse, de décision et de création.
Utopie et techno-réalisme
L’utopie d’une information libre et accessible défendue par les mouvements altermondialistes des années 60s-70s en parallèle aux mouvements anti-guerre au Vietnam et hippies pour un Internet libre et ouvert s’est diluée dans celle du contrôle. Celui des flux informationnels et de l’accès aux informations d’abord, puis celui du développement des connaissances. Le love power a été remplacé par le réalisme d’un technopouvoir aux mains d’une poignée d’oligarques.
Emprise et pillage
Pour survivre, les médias s’alignent sur les logiques de l’industrie numérique (stratégie de référencement, de visibilité, d’interaction avec le consommateur, quand ils ne se transforment pas eux-mêmes en acteur du numérique. …). Désormais, l’accès aux médias dépend de plus en plus des plateformes qui pourront bientôt se passer des médias.
Le pillage des données et des contenus culturels est déjà effectif. Non content d’avoir collecté l’ensemble des données disponibles sur le web, les acteurs de l’IA ont passé des accord avec de nombreux médias pour pouvoir exploiter leurs archives et leurs publications [3] .
Cela est renforcé par les pressions subies par le secteur public en général et celui de la santé notamment, d’ouvrir leurs banques de données en libre accès (courant open data) ce qui profite essentiellement aux géants de la Tech, éventuellement à des entreprises, start-ups … qui in fine, se font généralement rachetées par les géants de la Tech.
Avec la convergence des mondes des médias et de la tech, comment continuer à assurer la pluralité et la diversité des points de vue, de la manière de traiter des sujets, d’interviewer des personnes n’appartenant pas au courant mainstream ?
Dépendance des médias aux plateformes numériques et à l’IA
Les réseaux sociaux échappent aux médias, ils appartiennent aux géants de la Tech, qui connaissent mieux que les médias leurs lecteurs, téléspectateurs, auditeurs, internautes…
Les grandes plateformes numériques ont les capacités de contrôler tout ou partie du cycle de vie de l’information médiatisée, cela peut concerner par exemple :
· La génération d’idées, le conditionnement de la pensée, l’influence, le choix et la manière de traiter des sujets, ...
· La collecte d’information, les citations, la représentation de la réalité, …
· L’édition, le traitement de l’information, la rédaction des articles, la formulation des titres, chapeaux, résumés, illustrations, …
· La structuration, la hiérarchisation, la mise en forme, la réécriture des textes sous différents formats
· Les traductions multilingues et les déclinaisons multimédia
· L’indexation, la recherche et l’accès aux contenus
· La création de synthèses et de synthèses de synthèses, de contenus personnalisés, …
· Les recommandations de lecture, le ciblage des clients, la personnalisation des services d’information
· Les statistiques d’usage
· Etc.
De nos jours, les contenus produits par des médias doivent être conçus et formatés pour être promus, visibles, indexés, « digérables » par des IA selon les modalités déterminées et imposés par les acteurs de la Big Tech. Ces derniers maitrisent, y compris par la captation des données et les techniques d’IAGen, la majorité des éléments de la chaine de création et de distribution des contenus multimédia.
Fin des médias et fin des journalistes ?
Succomber aux sirènes de la dématérialisation, signifie pour les médias, d’intégrer toujours plus Internet dans leur manière de faire, cela entraine toujours plus de dépendance aux géants de la tech et à leur vision du monde.
Les médias s’optimisent pour correspondre aux attentes de leurs nouveaux intermédiaires et agrégateurs numériques (entre autres, en licenciant des personnes ou en précarisant leur emploi).
Avec l’usage généralisé de l’IA (entrainant la fin d’une société de l’analyse), avec l’IA pour générer des faux sites de médias, de la désinformation ou des avatars journalistes numériques, demain, serons nous tous des « journal-IA-istes » ou n’y aura-t-il plus de journalistes du tout ?
En étant en mesure d’alimenter en continu la surabondance informationnelle, nous justifions le recours à plus de technologie, plus de centres de données, plus de consommation, plus d’IA pour en faire la synthèse, les exploiter et pour détecter des fakes news. La fuite en avant et le solutionnisme technologique sont une réalité mais est-ce vraiment désirable ?
Écouter la radio à partir de son téléphone via une application est dépendant des conditions imposées par le fournisseur de service (la plateforme) qui maitrise le magasin d’applications pour télécharger l’App mais aussi le plus souvent le stockage, le traitement, l’accès à l’information. Ils sont devenus de nouveaux intermédiaires qui accaparent la valeur produite par les médias qui y sont vassalisés.
La personnalisation de l’information enferme ceux à qui elle est destinée dans des bulles informationnelles et empêche la diffusion d’un socle commun d’informations partagées permettant de faire société [5]. Ainsi la personnalisation algorithmique des contenus contribue au renforcement des opinions en diminuant les possibilités d’être exposé à du différent, à l’amplification de certaines informations au détriment d’autres, au profilage des personnes, journalistes compris.
Responsabilité éditoriale
Comment un média, un journaliste, peuvent assurer la responsabilité éditoriale des contenus dès lors qu’il y a eu recours à des IA génératives et à des contenus fabriqués sans réels transparence et contrôle des sources, des données et des résultats ?
Avec l’IA générative, comment être en mesure de produire de l’information vérifiée ?
A l’ère d’un numérique indissociable de l’économie de la surveillance, comment protéger ses sources ?
L’espionnage des journalistes n’est pas récent mais des affaires ne cessent de démontrer ce business de l’espionnage et l’efficacité des moyens informatiques et télécoms qui permettent de le faire. Pour ne citer que quelques cas récents, rappelons les affaires Pegasus et Paragon [5] (dont la solution « Zero Click Hack » de ce dernier permet d’espionner des communications chiffrées comme WhatsApp et Signal). Comment ne pas évoquer les instruments juridiques ou des pressions par des agences gouvernementales, pour l’installation de portes dérobées dans des logiciels et l’accès aux contenus sans que les utilisateurs en soient avertis [6] ? Par ailleurs, des lois extraterritoriales, qui s’appliquent partout dans le monde, à ceux qui utilisent des infrastructures et services de fournisseurs big Tech, donnent à certains acteurs, des capacités d’espionnage renforcées par des liens privilégiés entre les Big Tech et les gouvernements.
Comment croire que des chartes d’éthique ou de déontologie peuvent suffirent ?
Une déclaration de principes généraux, tellement généraux qu’ils en sont difficilement réalisables et dont le non-respect est impossible à sanctionner est de peu d’utilité. Être en conformité avec des principes généraux politiquement et socialement corrects mais aux contours élastiques, engage peu. Une charte d’éthique, n’a pas force de Loi. Entre une déclaration de principe « nice to have » et la réalité des métiers du journalisme et des médias, la plupart du temps une charte ressort de l’argumentaire marketing, de l’instrument de sensibilisation à des bonnes pratiques sorties de tout contexte pratique d’application : Parfois même, une charte peut servir des stratégies relevant d’une démarche de « ethic gazing / whashing ».
De manière similaire, tout le monde est d’accord avec la notion et le besoin liés au « secret médical » mais comment le rendre effectif dans des environnements numériques et des infrastructures que ni les patients, ni le personnel soignant ou administratif ne maitrisent et sur lesquels ils n’ont aucun contrôle ? Cela est particulièrement criant dans des activités normales liées aux soins et encore plus lors de vols massifs de dossiers médicaux informatisés et de cyberattaques avec chantage de divulgation des données.
Les lignes directrices, recommandations du Conseil Suisse de la presse sur l’IA [7] reconnaissent dans son préambule :
« Les programmes d’IA génératifs, en particulier, sont en mesure de produire divers contenus vraisemblables (texte, image, son) qui induisent un fort « effet de réel ». Les journalistes doivent donc faire preuve de vigilance et de retenue dans l’utilisation de ces programmes afin de garantir un journalisme fiable ».
Faire preuve de vigilance est certes toujours nécessaire, mais pratiquement comment cela peut se traduire sur le terrain ? Peut-être que la meilleure manière d’être vigilant est de se retenir de les utiliser, comme le propose l’association des mots vigilance et retenue ? Les divers articles articulés ensuite, même s’ils sont théoriquement désirables, ne sont pas réalisables au regard de la réalité du monde de fonctionnement des IA génératives, de l’économie numérique et des moyens accordés (ou pas) aux journalistes pour réaliser leur métier selon la déontologie attendue.
La responsabilité des journalistes et des médias est largement invoquée, celle des fournisseurs d’IAs et des brokers de données, pas du tout. C’est un peu comme en cybersécurité, la responsabilité et les moyens de la sécurité informatique incombent aux utilisateurs alors que des fournisseurs peuvent concevoir et commercialiser des solutions vulnérables comportant des défauts de sécurité.
Dans les faits, que cela soit pour la recherche de la vérité ou pour ce qui concerne le traitement des sources, respecter les exigences exprimées par ces lignes directrices envers les journalistes et les médias, reviendraient à s’abstenir d’utiliser l’intelligence artificielle générative. Peut-être est-cela que recouvre la notion de retenue évoquée en préambule des recommandations du Conseil Suisse de la presse sur l’IA adoptées le 17 janvier 2024.
Au-delà des pseudos garde-fous
Se poser des questions sur les possibles éventuelles régulations de l’IA et des moyens de les faire respecter ne devrait pas occulter les questions fondamentales liées à la consommation des ressources naturelles et humaines et aux impacts environnementaux de l’IA. Il est urgent de savoir s’il existe un modèle énergétique qui pourra supporter l’augmentation des usages de l’IA et des centre des données ?
Notes
[1] https://larevuedesmedias.ina.fr/clone-intelligence-artificielle-journaliste-television-coree-du-sud-kim-ju-ha-mbn
[2] Comme pour ne citer qu’un exemple, les services de partage des modèles et des ensembles de données nécessaires à l'apprentissage automatique proposés par l’entreprise Huggingface. https://huggingface.co/
[3] Accords d’Open AI (ChatGPT) en France avec Le monde, en Allemagne avec Axel Springer, le groupe Bertelsmann, El Pais en Espagne, avec le Financial Times au Royaume Uni ou encore par exemple aux USA, avec le News Corp (entre autre maison mère de The Wall Street Journal, du New York Post ou de la maison d’édition HarpperCollins).
[4] Voire notamment https://solange-ghernaouti.com/blog/l-intelligence-artificielle-en-passe-de-tuer-la-democratie
[5] https://fr.wikipedia.org/wiki/Pegasus_(logiciel_espion)
[6] Par exemple en France https://www.publicsenat.fr/actualites/parlementaire/narcotrafic-le-senat-autorise-les-services-de-renseignement-a-acceder-aux-messageries-cryptees
[7] https://presserat.ch/fr/journalistenkodex/ia_lignesdirectrices/