The Hong Kong Telegraph - De fausses images sur la guerre Etats-Unis-Iran continuent de proliférer sur X malgré les avertissements

Hong Kong -

DANS LES NOUVELLES

De fausses images sur la guerre Etats-Unis-Iran continuent de proliférer sur X malgré les avertissements
De fausses images sur la guerre Etats-Unis-Iran continuent de proliférer sur X malgré les avertissements / Photo: SEBASTIEN BOZON - AFP/Archives

De fausses images sur la guerre Etats-Unis-Iran continuent de proliférer sur X malgré les avertissements

De fausses images sur la guerre Etats-Unis-Iran continuent de proliférer sur X, le réseau social d'Elon Musk malgré un durcissement annoncé des règles visant à endiguer la désinformation.

Taille du texte:

"Les fils que je surveille sont toujours saturés de contenus générés par l’IA sur la guerre", constate auprès de l’AFP Joe Bodnar, de l'Institute for Strategic Dialogue.

Sur X, des vidéos créées par l'intelligence artificielle montrent par exemple des soldats américains capturés par l'Iran, une ville israélienne en ruines ou des ambassades américaines en flammes, laissant l'utilisateur incapable de distinguer la fiction de la réalité.

Pour tenter de protéger l'authenticité des contenus, X a pourtant annoncé la semaine dernière qu'il suspendrait pendant 90 jours du programme de partage de revenus les créateurs qui publient des vidéos de guerre générées par l’IA sans préciser qu'elles ont été produites artificiellement.

En cas de récidive, la suspension sera définitive, a averti dans un message Nikita Bier, responsable produit de X.

Un tournant notable pour une plateforme très critiquée pour être devenue un refuge de la désinformation depuis qu'Elon Musk a acquis le site pour 44 milliards de dollars en octobre 2022.

Les chercheurs spécialisés dans la désinformation restent cependant sceptiques et X n’a pas répondu lorsque l’AFP lui a demandé combien de comptes avaient été démonétisés.

"On ne constate pas que les créateurs aient été dissuadés de diffuser des images et des vidéos trompeuses générées par l’IA sur le conflit", observe M. Bodnar. Il cite un message d’un compte X certifié, donc éligible à la monétisation, qui a partagé un clip généré par l'IA montrant une soi-disant frappe iranienne "à capacité nucléaire" contre Israël.

Ce message a engrangé bien plus de vues que l'avertissement de Nikita Bier sur les comptes qui publient de l'IA sans le dire.

- Incitation aux faux -

Le réseau mondial de vérificateurs de l’AFP, du Brésil à l’Inde, a identifié de son côté un flot de faux contenus générés par l'IA sur la guerre au Moyen-Orient, dont beaucoup proviennent de comptes premium de X, dotés d'une coche bleue et accessibles moyennant paiement.

On y voit des vidéos créées par l'IA montrant un soldat américain en larmes dans une ambassade bombardée, des troupes américaines capturées, à genoux à côté de drapeaux iraniens, ou encore une flotte de la marine américaine détruite.

Le flot de visuels fabriqués par l'IA, mêlés à des images authentiques provenant du Moyen-Orient, enfle à un rythme que les équipes de vérification peinent à suivre.

Grok, le chatbot d'IA de X, semble avoir aggravé le problème, en affirmant à tort à des utilisateurs en quête de vérifications que de nombreux visuels générés par l’IA sur la guerre étaient réels.

Le modèle économique de X permet à des comptes premium de toucher des revenus proportionnels au nombre de vues, ce qui encourage la diffusion de contenus mensongers ou sensationnalistes, pointent les chercheurs.

Un compte premium, qui avait publié une vidéo générée par l'IA montrant le gratte-ciel Burj Khalifa de Dubaï en flammes, a ainsi ignoré la demande de Nikita Bier de signaler le contenu comme étant généré par l’IA. La publication est restée en ligne, cumulant plus de deux millions de vues.

- "Contre-mesure" -

En outre, même si la politique de démonétisation de X était strictement appliquée, un grand nombre d'utilisateurs de X qui diffusent des contenus générés par l'IA ne font pas partie du programme de partage de revenus, soulignent des chercheurs.

Ces utilisateurs restent certes soumis à des vérifications par le biais des "Community Notes" ("notes de la communauté", ndlr) mais l'efficacité de cet outil de modération communautaire est régulièrement remise en question.

L’an dernier, une étude du Digital Democracy Institute of the Americas a montré que plus de 90% des "Community Notes" de X ne sont jamais publiées.

"La politique de X constitue une contre-mesure raisonnable face à la désinformation virale liée à la guerre. En principe, cette politique réduit les incitations pour ceux qui diffusent de la désinformation", estime Alexios Mantzarlis, directeur de l'initiative Security, Trust, and Safety à Cornell Tech.

Mais "le diable se niche dans les détails : les métadonnées des contenus générés par l'IA peuvent être supprimées et les +Community Notes+ restent relativement rares", a souligné Alexios Mantzarlis.

burs-ac/aje/clr

馮-X.Féng--THT-士蔑報