La Nation Bénin...
Nous avons tous à cœur de comprendre le
monde qui nous entoure. Peut-être voulons-nous plus de clarté sur la guerre à
Gaza, ou sur le sort que notre gouvernement réserve au système de santé, dont
nos familles ont tant besoin ? Parfois, nous voulons simplement être
informés de la modification d’une ligne de bus qui va perturber notre trajet
quotidien. Peu importe l’importance du sujet, nous avons droit à des
informations fiables.
Nous sommes tous passés par là : on fait défiler notre fil d’actualité et on tombe sur un clip étonnant ou une histoire incroyable que l’on a immédiatement envie de partager. Mais désormais, il nous faut constamment tenter de distinguer ce qui est réel de ce qui a été créé par une intelligence artificielle.
Les contenus générés par l’IA sont devenus si convaincants, et ils façonnent tant les informations que nous consommons, que nous risquons de ne plus pouvoir faire confiance à quoi que ce soit. Or la méfiance alimente le complotisme, la polarisation sociale et la démobilisation démocratique.
En réalité, les outils censés nous aider à
comprendre le monde sapent l’intégrité de ce que nous appelons
« l’info ».
En cette Journée internationale de l’accès universel à l’information, nous tenons à rappeler que le public doit pouvoir accéder à une information fiable et basée sur des faits, fruit du travail des journalistes professionnels et des organisations qui les emploient, partout dans le monde.
Cependant, les fabricants des systèmes d’IA utilisés par des milliers de personnes manquent cruellement à leur devoir de vérité.
En effet, selon une nouvelle étude réalisée cette année par la BBC, la moitié des réponses générées par l’IA à des questions sur l’actualité omettaient des détails importants et comportaient des erreurs majeures.
Les assistants d’IA testés proposaient
systématiquement des faits erronés, inventaient de toute pièce des citations ou
les attribuaient aux mauvaises personnes, décontextualisaient l’information ou
paraphrasaient des rapports sans les mentionner.
Quel est le problème, après tout ? Ces systèmes sont utiles, ils font gagner du temps et ils ne cessent de s’améliorer. Le problème est que l’information n’a rien à voir avec une recette de gâteau ou des conseils de vacances. C’est la démocratie même qui est en jeu, parce qu’une société qui n’a pas de vision commune de la vérité ne peut pas faire de choix éclairés. Et en prenant pour argent comptant des contenus insidieux, qui déforment des informations pourtant issues d’un véritable travail journalistique, axé sur l’indépendance et l’exactitude, on risque de se perdre dans un dédale de demi-vérités toxiques et de manipulations éhontées.
Ce scénario ne relève pas d’une paranoïa lointaine et abstraite. Internet est déjà inondé de faux contenus synthétiques conçus pour tromper, multiplier les clics et défendre des intérêts particuliers. Les voix, les visages et les titres générés par l’IA dégradent l’écosystème de l’information, souvent sans que l’on sache clairement d’où ils proviennent, ni qui en a la responsabilité.Pendant ce temps, les contenus proposés par des journalistes qui se mettent au service de l’intérêt général, en particulier au sein de médias locaux, régionaux et indépendants, sont souvent récupérés sans autorisation, « reconditionnés » par des algorithmes et redistribués sans crédit ni contrepartie.
Ce phénomène est sans nul doute plus
pernicieux que les deepfakes, parce que les inexactitudes sont subtiles,
plausibles et plus susceptibles d’induire en erreur. Nous sommes en présence
d’un sabotage d’informations auxquelles nous devrions pourtant pouvoir nous
fier, ce qui sape toujours plus la confiance du public.
Alors que faire ?
L’Union Européenne de Radio-Télévision et WAN-IFRA, ainsi qu’un collectif en plein développement d’autres organisations représentant des milliers de journalistes professionnels et de rédactions dans le monde, appellent à une refonte urgente des interactions entre les développeurs d’IA, d’une part, et les informations et les personnes qui les produisent, d’autre part.
Parmi les diffuseurs et les éditeurs de presse que nous représentons, beaucoup utilisent l’IA de façon responsable pour améliorer leur pratique journalistique, mais sans compromettre l’intégrité éditoriale, par exemple en automatisant la traduction, en décelant les fausses nouvelles ou en personnalisant les contenus. Ils sont conscients que le déploiement de ces outils doit être transparent et géré avec précaution, et reposer sur des principes bien définis.
C’est pourquoi nous énonçons, à
l’attention des entreprises d’IA, cinq exigences — ou normes — claires, qui
n’ont rien de radical. Elles sont au contraire tout à fait réalistes et
relèvent du bon sens, et tout développeur de technologie éthique peut et devrait
les adopter.
1. Pas de contenu sans consentement. Les systèmes d’IA ne peuvent pas être entraînés sur des contenus d’actualité sans autorisation. Ces contenus sont soumis au droit d’auteur ; ils sont le fruit d’un travail rigoureux et ils jouissent de la confiance du public. Le scraping non autorisé est un vol qui nuit à ce travail et sape cette confiance.
2. Respect du travail des journalistes. Le journalisme de qualité représente certes un coût élevé, mais il revêt une importance primordiale pour la société. Les journalistes dont le travail alimente les outils d’IA doivent être rémunérés équitablement, en toute bonne foi.
3. Transparence. L’exactitude et l’attribution sont importantes. C’est pourquoi, lorsqu’un contenu généré par l’IA s’appuie sur des sources journalistiques, celles-ci doivent toujours être clairement citées et référencées par un lien. Nous avons le droit de savoir d’où provient l’information et si elle diffère de l’original.
4. Respect de la diversité. Les outils d’IA devraient promouvoir la pratique d’un journalisme pluraliste, indépendant et d’intérêt public. Un paysage informationnel dynamique repose nécessairement sur une pluralité représentative des points de vue.
5. Collaboration. Nous invitons les entreprises spécialisées dans l’IA à nouer un dialogue sérieux et pragmatique avec le secteur de l’information. Ensemble, nous pouvons élaborer des normes en matière d’exactitude, de sécurité et de transparence, mais pour ce faire, ces entreprises doivent considérer les journalistes comme des partenaires, et non comme des fournisseurs de données gratuites qu’elles peuvent exploiter et monétiser.
Nous faisons face à un défi civique et quiconque s’appuie sur des informations crédibles pour prendre des décisions, se forger une opinion ou décider pour qui voter est concerné.
Les entreprises technologiques parlent beaucoup de confiance, mais la confiance repose nécessairement sur des fondations solides. Nous demandons donc aux sociétés qui sont à la pointe de la révolution de l’IA de prendre ce problème à bras-le-corps, dès maintenant. Elles ont le pouvoir de façonner l’avenir de l’information, mais elles ne prennent pas encore suffisamment au sérieux les failles de leurs outils et leurs conséquences potentielles.
À moins de rectifier très rapidement le
tir, l’IA ne va pas seulement déformer l’info : elle va anéantir la
capacité du public à faire confiance à quoi que ce soit et à qui que ce soit,
ce qui serait catastrophique pour nous tous.
Liz Corbin, directrice des Actualités à l’UER, et Vincent Peyrègne, directeur général de WAN-IFRA