Les deepfakes ou hypertrucages exploitent les ressources de l'intelligence artificielle pour manipuler une vidéo ou un son. Il s'agit d'une démarche frauduleuse qui vise à créer des canulars et de fausses informations.
Ainsi donc, les auteurs de deepfakes cherchent à avoir un impact négatif sur les connaissances du public en période électorale, à induire les gens en erreur lors de crises, etc.
A cet effet, nous vous proposons quelques exemples sur les images générées par l’intelligence artificielle (IA), devenues virales en mai, d'une explosion au Pentagone aux États-Unis.
Mais plus tôt dans le mois de mars, de fausses images générées par IA de l'ancien président américain Donald Trump en train d'être arrêté et ainsi que celle du pape François, portant une doudoune ont largement circulé sur les réseaux sociaux.
Lors des élections générales de cette année au Nigeria, du contenu audio trafiqué affirmant que le candidat à la présidentielle Atiku Abubakar, son colistier, Dr. Ifeanyi Okowa et le gouverneur de l'État de Sokoto Aminu Tambuwal prévoyaient de truquer le vote, a été diffusé en ligne.
Les deepfakes ont indéniablement soulevé d'importantes questions et préoccupations pour les médias, explique Silas Jonathan, chercheur pour Dubawa et membre de l'Académie Africaine pour l’Enquête Open Source. Plus les désinformateurs réussissent à déployer des deepfakes, plus les médias perdent en crédibilité, car le public devient moins capable de distinguer ce qui est réel de ce qui ne l'est pas, ajoute Jeffrey Nyabor, journaliste ghanéen et vérificateur de faits pour Dubawa Ghana.
Cependant, l’IA peut être à la fois le problème et la solution.
Voici quelques outils que les journalistes peuvent utiliser pour lutter contre les deepfakes :
Les réseaux de neurones artificiels profonds
TensorFlow et PyTorch sont deux exemples d'outils gratuits qui utilisent des réseaux de neurones profonds pour détecter les deepfakes. Ils peuvent être utilisés pour analyser des images, des signaux vidéo et audio afin de détecter des indices de manipulation. Les utilisateurs doivent simplement télécharger des exemples de contenus médiatiques réels et faux pour former un modèle de détection permettant de différencier les deux.
"Ces réseaux peuvent apprendre de grandes quantités de données pour identifier les incohérences dans les expressions faciales, les mouvements ou les façons de parler qui peuvent indiquer la présence d'un deepfake", explique M. Jonathan.
“Les algorithmes d'apprentissage automatique peuvent également être entraînés pour analyser et détecter des schémas dans des vidéos ou des images afin de déterminer s’ils ont été manipulés ou générés par des techniques de deepfake.”
Deepware
Deepware est une technologie open source principalement dédiée à la détection des vidéos générées par IA. Le site Web dispose d'un scanner sur lequel les vidéos peuvent être téléchargées pour savoir si elles ont été manipulées avec des données synthétiques.
Semblables à d’autres détecteurs de deepfakes, les modèles de deepware recherchent des signes de manipulation sur le visage humain. La principale limite de l’outil est son incapacité à détecter les techniques d’échange de voix, ce qui représente un danger bien plus grand que l’échange de visage.
“Le résultat n’est pas toujours précis à 100 %. Cela peut être coup-ci, coup-ça. Tout dépend de la qualité du faux, de la langue dans laquelle il a été créé et de quelques autres facteurs", dit Mayowa Tijani, responsable éditorial chez TheCable.
Sensity
Sensity se spécialise dans la détection des deepfakes et la reconnaissance d'images générées par IA. Ses modèles avancés d’apprentissage automatique peuvent être utilisés pour analyser des indices visuels et contextuels afin d’identifier les images générées par IA.
L'outil n'est pas gratuit ; les tarifs sont adaptés en fonction de son utilisation mensuelle et des domaines d'intérêt individuels.
Hive
Avec Hive, les fact-checkeurs indépendants et les internautes peuvent analyser rapidement des textes et des images numériques pour vérifier leur authenticité. Pour vérifier une image, les utilisateurs téléchargent un fichier sur la page de détection de contenu généré par IA afin que la demande soit traitée rapidement.
Il existe également une extension Chrome, Hive AI detector, qui peut être ajoutée au bureau de son ordinateur. Cela permet aux utilisateurs d’identifier gratuitement le texte et les images générés par IA à partir de leur navigateur.
Illuminarty
Illuminarty offre également la possibilité de détecter les images et le texte générés par IA. La version gratuite comprend des services de base tandis que les forfaits premium offrent plus de fonctionnalités.
Grâce à cet outil, les utilisateurs peuvent identifier l’endroit de la manipulation dans une fausse image et à partir de quels modèles d'IA elle a été générée. Il peut également évaluer la probabilité qu’une image ait été créée par IA.
Tous ces outils peuvent aider les utilisateurs à identifier et à combattre les deepfakes, mais ils ne sont pas précis à 100 %. Il existe toujours un risque de faux positifs ou négatifs, où un contenu légitime peut être signalé par erreur comme un deepfake ou vice versa, indique M. Jonathan. Les journalistes et les fact-checkeurs indépendants peuvent également détecter un deepfake en examinant le contenu avec un œil critique. Toutes les images et vidéos générées par IA ne sont pas parfaites ; beaucoup peuvent encore être démasquées si on les regarde attentivement.
Écrit avec IJNet.org
Tous les commentaires 0
CONNECTEZ-VOUS POUR COMMENTER
VIDEOS