La Nation Bénin...

Intelligence artificielle et désordre de l’information: Quelle marge de manœuvre pour le régulateur des médias ?

Actualités
Marius Janvier Dossou-Yovo Marius Janvier Dossou-Yovo

La révolution numérique est en marche. Elle permet au génie humain de s’exprimer par la créativité et l’innovation. Qualifiée de cinquième révolution industrielle, l’exploitation de l’Ia se démocratise et est en train de remettre en cause certaines certitudes.

Par   Marius Janvier Dossou-Yovo, le 07 juin 2024 à 02h00 Durée 3 min.
#Intelligence artificielle

 L’Ia est un système fonctionnant grâce à une machine capable d’influencer son environnement en produisant des résultats (tels que des prédictions, des recommandations ou des décisions) pour répondre à un ensemble donné d’objectifs définis par l’homme . Elle est, selon un rapport de la Haca , l’ensemble des technologies visant à réaliser par l’informatique des tâches cognitives, traditionnellement effectuées par l’humain .          

L’Ia représente aujourd'hui un domaine en plein essor, cependant, c’est peu dire qu’elle comporte des risques multiformes tels que la perte de contrôle, la discrimination, l'automatisation et le manque d’émotion. Ces enjeux nous renvoient inévitablement au personnage emblématique de Frankenstein, qui incarne les dangers de l'humanité qui s'aventure à jouer le rôle de créateur en donnant vie à des entités artificielles. L'expansion de l’Ia touche désormais des domaines qui étaient autrefois l'apanage de l'homme, ouvrant ainsi un éventail d'opportunités allant de l'industrie à la sphère ludique, en passant par le secteur commercial, policier, prédictif et éthique. Toutefois, elle peut également refléter nos biais, mettant en lumière la nécessité urgente d'établir des règles éthiques pour prévenir tout dérapage. Ce qui nous intéresse, c’est la capacité des régulateurs de contenus à appréhender et intégrer cette nouvelle donne dans leur activité quotidienne de régulation.

La présente réflexion présentera les enjeux de l’Ia (I). Elle fera, pour des intérêts scientifiques, abstraction des autres volets de l’activité journalistique pour ne s’en tenir qu’à la production et à la diffusion des contenus car dans la plupart des pays africains, à quelques exceptions près, les défis liés à la bonne organisation et à la structuration de l’écosystème médiatique sont des défis permanents.

Nous répondrons également à la question de la mise en place, par le régulateur, de nouveaux paradigmes qui prennent en compte les exigences liées à une Ia vertueuse et la nécessité d’une maitrise de la régulation structurelle.

 Les enjeux de l’usage de l’Ia dans la production et la diffusion du contenu informationnel

 L’Ia permet l’amélioration de la qualité des contenus mis à la disposition des consommateurs mais peut aussi a contrario révéler de nombreux biais préjudiciables au droit à l’information des citoyens.

 L’amélioration du contenu informationnel par l’usage de l’Ia

 L’Ia a besoin de grands volumes de données, nécessaires à son efficacité. Des caractéristiques sont alors extraites permettant ainsi leur traitement pour aboutir à un résultat donné. L’intervention humaine est nécessaire en ce qui concerne les systèmes d’apprentissage automatique, et ce, pour définir à la machine les conditions d’extraction des caractéristiques recherchées. Les systèmes d’Ia révolutionnent la façon dont les informations sont créées sur différents supports, notamment les textes, les audios, les images et les vidéos.

L’Ia permet aux professionnels des médias d’avoir accès à d’importantes données, facilité par la mise en place des big data.

- L’Ia permet l’extraction automatique d’une grande quantité de données dès l’ingestion d’un fichier multimédia. Ceci inclut la reconnaissance faciale, d’objets, de lieux, d’organisations et de logos, l’analyse des couches audio, la reconnaissance vocale et la traduction automatique, la reconnaissance optique de caractères ainsi que l’analyse de sentiments et la détection d’émotions.

- Grâce à l’Ia, le catalogage des médias est automatisé, permettant aux créateurs de se concentrer sur la production de contenus. L’utilisation d’outils comme Databinder simplifie la validation des métadonnées, conduisant à un catalogue de contenus plus précis et exhaustif.

- L’Ia génère un volume important de données, offrant des recherches plus précises grâce à de nombreuses options et paramètres. Cela permet une adaptation plus fine de la recherche de contenus selon les besoins spécifiques de l’utilisateur.

- L’Ia permet de détecter et récupérer automatiquement des segments de vidéos spécifiques, de les intégrer directement dans un éditeur vidéo web et de produire rapidement un contenu final prêt à être diffusé.

- L’Ia facilite l’automatisation du sous-titrage par l’analyse linguistique, la reconnaissance vocale et la traduction automatique. Elle permet la création de sous-titres dans plusieurs langues à partir de textes audio, avec une segmentation précise et des codes temporels.

- L’Ia peut faciliter la modération des contenus, surtout dans les contextes soumis à des réglementations spécifiques. Les technologies de reconnaissance des sentiments, d’analyse des images et des objets, et d’analyse du langage naturel permettent la détection de contenus sensibles ou exclusivement destinés à des adultes, tant dans les images que dans les audios, facilitant leur adaptation ou leur suppression.

 Les risques de biais informationnels

 C’est le réel talon d’Achille de l’Ia. Les débats que son usage suscite sont centrés autour des risques encourus.  Si l’Ia générative est susceptible d’améliorer le tri, l’organisation et la personnalisation des informations, son utilisation par les journalistes sans un contrôle humain adéquat peut conduire à la diffusion d’informations biaisées ou non vérifiées, ce qui finit par éroder la confiance du public dans les médias.

Autrement dit, l’attention du journaliste utilisateur de l’Ia est requise. Il n’en reste pas moins qu’avec toute sa bonne volonté, il pourrait ne pas percevoir l’ensemble des erreurs qui pourraient s’y glisser.

Il devient alors difficile de distinguer les contenus générés par l’Ia de ceux créés par l’homme, ce qui altère la confiance dans l’espace informationnel en général. Selon certaines études, les éléments de mésinformation générés par l’Ia sont plus difficiles à identifier car ils répondent à des critères de crédibilité, de transparence et d’exhaustivité, rendant ainsi la propagande ou la désinformation moins facile à détecter.  En outre, les filigranes peuvent être supprimés ou modifiés, compliquant davantage la capacité à déceler de manière fiable la nature synthétique du contenu. Même lorsque les mécanismes de détection sont utilisés pour vérifier le contenu, ils peuvent être erronés, de sorte qu’il n’existe actuellement aucune méthode fiable pour déterminer sans équivoque si un contenu est généré par l’Ia.                                                                                    Dans ce contexte, les risques sont grands que de fausses informations soient colportées par les médias tombant ainsi dans un désordre de l’information avec ses corollaires de mésinformation, de mal-information et de désinformation. Ce qui est notable, c’est la dimension de fausseté et de préjudice associée à ce genre d’information. La technologie du deepfake  facilite le processus de création de discours, de déclarations ou d’actions synthétiques attribués à des personnalités ou à des autorités publiques. A l’instar des clickbait, derrière se trouve l’idée de manipulation. La création et la diffusion de deepfake peuvent faire l’objet d’action en justice pour violation du droit de la propriété intellectuelle et du droit à la protection de la vie privée.

Le pouvoir de règlementation du régulateur devrait permettre ex ante de prendre les précautions nécessaires. Par exemple, l’utilisation de la technologie du deepfake devrait s’accompagner d’un consentement clair des personnes reproduites, et le contenu devrait être clairement étiqueté comme modifié ou généré par l’Ia à l’image de ce qui se fait déjà avec les médias traditionnels pour la publication des images d’autrui ou la diffusion des œuvres cinématographiques ou artistiques.

 Les principaux droits violés

 L’Ia est susceptible de préjudicier de nombreux droits qui peuvent être des droits fondamentaux de la personne (le droit à la vie privée, la liberté d’opinion et d’expression, l’égalité et la non-discrimination, le droit d’accès à l’information, la liberté de la presse, etc.) ou des droits patrimoniaux, etc. L’utilisation de l’Ia aujourd’hui ne permet pas toujours de respecter les législations en matière de droits d’auteurs, de protection des données à caractère personnel ou encore de la vie privée. Cela inclut l’utilisation de contenus protégés par les droits d’auteurs sans les mentions appropriées ou la fuite involontaire d’informations privées ou sensibles à partir de leurs données d’apprentissage, pouvant représenter un problème pour la liberté d’expression et la protection de la vie privée.

Dans les pays africains, en l’occurrence le Bénin, le cadre juridique applicable à l’Ia est en pleine construction. Il n’en demeure pas moins que des actions en justice peuvent être intentées contre la violation de certains droits particuliers.

Il se posera alors la question du sujet responsable (le journaliste, le développeur ou le déployeur?). La responsabilité peut être un problème lorsqu’il s’avère laborieux d’imputer une faute s’agissant de diffusion d’information basée sur des algorithmes, notamment en cas de diffamation. La transparence et la crédibilité posent problème lorsque les consommateurs ne réalisent pas ou ne peuvent réaliser que le contenu est généré par une machine, quelles en sont les sources et dans quelle mesure l’information est vérifiée ou même fausse. Le débat actuel à propos des « deepfakes » ou vidéos truquées en est un exemple patent. Quant à la question des droits d’auteur, elle ne va pas tarder à se poser à grande échelle, puisque le contenu généré par l’Ia dépend de moins en moins des intrants humains, raison pour laquelle certains préconisent d’attribuer une forme de responsabilité en matière de droits d’auteur aux algorithmes eux-mêmes. Dans son rapport sur l’Ia comme bien public, le Forum Information et Démocratie suggère que les développeurs et les déployeurs soient tenus responsables des préjudices générés par l’Ia (responsabilité pour non-respect des principes éthiques relatifs à la provenance et à la curation des données et aussi responsabilité pour faute sur la base de l’article 1382 du code civil). Mais le régulateur de contenus devrait regarder du côté du journaliste qui met le contenu à la disposition du public (responsabilité éditoriale). Le principe de la responsabilité en cascade trouvera à s’appliquer.

 La nécessité d’une réinvention de la régulation des médias par l’introduction de l’Ia

 L’introduction de l’Ia dans l’activité journalistique fait intervenir de nouveaux acteurs avec des modes opératoires jusque-là insuffisamment maitrisés. Le régulateur des médias se retrouve donc au centre de nouvelles relations que sa mission ne saurait ignorer. En sa qualité de régulateur technique, structurel et de contenus, il doit inventer de nouveaux paradigmes pour une régulation efficace.

 L’implication du régulateur dans la mise en place de l’écosystème de l’Ia

 Notre conviction profonde est que la régulation de l’IA notamment ses acteurs et les activités qu’elle mène doivent relever d’un régulateur autre que celui des contenus médiatiques. En effet, le régime juridique de l’Ia est plus proche de celui des intermédiaires techniques que des producteurs de contenus. Les équipes de conception et d’ingénierie de l’Ia (développeurs et déployeurs) n’interviennent pas dans le choix des contenus opéré par les journalistes.

Elles veillent à protéger l’Ia contre les utilisations abusives et les attaques les plus complexes comme l’aurait fait un hébergeur. Il leur appartient de prendre les mesures les plus rigoureuses pour vérifier la provenance et l’authenticité des données afin de garantir la transparence des systèmes d’Ia et leur résistance au désordre de l’information. En outre, en ce qui concerne les menaces les plus complexes, les développeurs sont tenus de mettre en place des stratégies d’atténuation. Ces dernières devraient inclure des mesures visant à accroître la difficulté et le coût des manipulations éventuelles de l’Ia susceptibles de porter atteinte aux droits humains comme le droit à l’information crédible, la vie privée, etc.

Dans cet environnement dont les balises juridiques sont posées progressivement, le régulateur des médias ne peut prendre le risque de rester à l’écart. Il s’agit déjà d’être au fait de la révolution qui s’y mène, de maitriser les logiques qui sous-tendent l’Ia et de mesurer son impact sur la production de l’information. L’une des missions du régulateur est de garantir l’intégrité et la fiabilité de l’information. A ce titre, il a l’obligation de créer des passerelles d’échanges avec le régulateur des systèmes d’Ia (quand il sera mis en place) ainsi que les développeurs et déployeurs d’Ia. Il s’agira, avec ces acteurs, de veiller au respect de certaines règles non codifiées, certes, mais qui ont été élaborées par certains acteurs et qui font autorité ou servent de référence. Parmi ces règles figurent, entre autres, le Décret sur le développement et l’utilisation sûrs, sécurisés et dignes de confiance de l’Ia signé par le président des Etats-Unis Biden, la loi de l’Union Européenne sur l’Ia (en cours de finalisation)), la Recommandation de l’Unesco sur l’éthique de l’Ia qui comprend un chapitre expressément consacré à la communication et à l’information, fournissant des recommandations politiques concrètes et spécifiques au domaine, les principes d’Asilomar sur l’Ia, la Déclaration de Windhoek sur l’Ia en Afrique Australe, le Projet de convention-cadre sur l’Ia Droits de l’homme, démocratie et Etat de droit du Conseil de l’Europe, la recommandation du Conseil de l’Ocde sur l’Ia, etc.

Des principes éthiques spécifiques à chaque pays pourraient également être définis pour traduire les valeurs sociales et juridiques, sous réserve qu’ils soient conformes à la législation.

 L’éducation à l’Ia

 Le régulateur des médias se trouve face à une matière qui n’a pas livré tous ses secrets mais qui, aujourd’hui, est de plus en plus utilisée par les journalistes. Pour éviter les dérapages éventuels, il est nécessaire de mieux connaître l’Ia, son fonctionnement et si possible les biais auxquels elle expose l’utilisateur. Pour ce faire, l’éducation à l’Ia est une approche qui, si elle est structurée, prépare les professionnels des médias à éviter certains travers.

Premièrement, l’Ia opère comme une source d’information. Il est donc louable d’emprunter la séculaire maxime, « source unique égale à source nulle ». Elle permettra de confronter les informations générées par l’Ia avec d’autres sources d’informations. En somme, l’Ia ne doit pas être considérée comme une source infaillible d’informations. Les réflexes du journaliste seront toujours de mise à travers les recoupements de l’information. Le journalisme demeure le maître avec ses exigences et valeurs.

Deuxièmement, l’on peut interpeller l’esprit critique du journaliste, une sorte de soft skills. L’esprit critique joue un rôle crucial dans l'interaction avec l'intelligence artificielle (Ia). Il permet d'évaluer de manière objective et rigoureuse les résultats et les décisions issus de ces systèmes. Tout d'abord, il aide à discerner la fiabilité des informations produites par l'Ia, en distinguant les sources fiables des données erronées ou trompeuses. De plus, il est essentiel pour identifier les biais et les préjugés qui peuvent être intégrés dans les données d'entraînement de l'Ia, permettant ainsi de questionner leur impact sur les résultats. L'esprit critique intervient également dans l'évaluation de la pertinence des décisions prises par l'Ia, en s'assurant qu'elles sont justes, éthiques et conformes aux normes établies. Il aide à comprendre les limites de l'Ia, en identifiant les domaines où elle peut être moins efficace ou précise, évitant ainsi de surestimer ses capacités. Par ailleurs, il incite à anticiper les conséquences potentielles de l'utilisation de l'Ia, en particulier dans des contextes sensibles. En favorisant la réflexion sur les implications éthiques, l'esprit critique contribue à promouvoir des normes et des réglementations visant à garantir une utilisation responsable de cette technologie. En somme, l'esprit critique face à l'Ia permet d'éviter une adhésion aveugle à ses résultats, assurant ainsi une utilisation éclairée, éthique et bénéfique de cette technologie au service de la société.

L’Ia est déjà une réalité et les gouvernants béninois ont pris la mesure des choses à travers l’élaboration d’une stratégie nationale d’intelligence artificielle et des mégadonnées 2023-2027. Il reste à souhaiter que l’implémentation de cette stratégie appelle une démarche inclusive qui implique tous les acteurs directs et indirects qui seront, d’une manière ou d’une autre, impactés par l’utilisation de l’Ia.

 Administrateur civil,

Docteur d’Etat en droit privé

Expert en régulation des médias et droit du numérique

e-mail : mariusjanvier2016@gmail.com / mariusjanvierd@yahoo.fr