La Nation Bénin...

Images créées par l’Ia: Comment repérer des indices du faux

Fact-Checking

Les images créées par l'intelligence artificielle sont de plus en plus présentes sur internet et leur caractère ultraréaliste appelle à une plus grande vigilance. 

Par   Fulbert Adjimehossou, le 15 mai 2023 à 16h09 Durée 2 min.

Obama contemplant Washington depuis la Maison-Blanche.
Emmanuel Macron en éboueur. Donald Trump menotté, le pape François déambulant en doudoune blanche, etc. Ces images qui circulent depuis plusieurs semaines sont loin d’être prises par des photographes de presse. Créées de toutes pièces par des outils d’intelligence artificielle comme Midjourney, Reddit, DeepAI et Dall-E, elles proviennent juste de mots-clés entrés par l'utilisateur. Ces outils, entraînés sur des milliards d'images, sont capables de proposer une photo en seulement quelques minutes. Il n’est pas toujours facile de repérer ce qui cloche. Certaines images semblent parfois très réalistes qu’elles donnent du fil à retordre au pisteur de l’infox. Mais comme on le dit, le diable se trouve dans les détails. Il est conseiller de repérer les potentiels petits défauts qui s'y cachent.

Ce qui cloche

Pour détecter une fausse image, il est conseillé de zoomer dessus pour identifier les incohérences éventuelles. Les images générées par des algorithmes peuvent parfois présenter des déformations de mains, de doigts, de pieds ou de boucles d'oreilles. Le visage et la couleur des yeux sont également des indices à prendre en compte. L'arrière-plan peut aussi être un élément suspect, car l'Ia a parfois du mal à présenter un arrière-plan parfait et laisse entrevoir des fonds unis. Les images générées sont souvent très lisses, « trop belles pour être vraies ». Enfin, le contexte dans lequel l'image est générée est important pour distinguer le vrai du faux, même s’il peut rendre l’infox encore plus virale.