Root NationNouvellesActualités informatiquesUne photo d'une "explosion" près du Pentagone, générée par l'IA, est devenue virale en Twitter

Une photo d'une "explosion" près du Pentagone, générée par l'IA, est devenue virale en Twitter

-

Récemment dans Twitter une photo est apparue, qui, comme le dit la description, représentait une explosion qui s'est produite près du Pentagone. Pour cette raison, il y a même eu une chute à court terme du marché - l'indice S&P 500 a chuté de 0,29%, mais après qu'il s'est avéré que la photo était fausse, l'indice s'est redressé. L'image a été publiée par un compte Bloomberg Feed vérifié, qui, malgré sa coche bleue, n'est pas affilié à la société de médias Bloomberg.

La photo a rapidement été reconnue comme fausse. Il a apparemment été généré avec l'aide de l'intelligence artificielle. Mais avant que ces détails n'apparaissent, la désinformation avait déjà été propagée par divers comptes, dont le salaud Russia Today (enfin, qui en douterait).

Pentagone

La fausse image montre un grand panache de fumée noire à côté d'un bâtiment qui ressemble vaguement au Pentagone, avec un texte d'accompagnement. Après une inspection plus approfondie, les autorités locales ont confirmé que l'image n'était pas une représentation exacte du Pentagone, et les poteaux de clôture et les colonnes de construction flous ressemblaient à une image plutôt bâclée créée à l'aide d'un modèle d'IA comme Stable Diffusion.

Faux

Faux compte Bloomberg avant Twitter l'a bloqué, avait des dizaines de milliers de tweets, mais moins de 1 000 abonnés au total, et on ne sait pas qui l'a dirigé et quelles étaient les motivations derrière la diffusion de la fausse image. En plus de Bloomberg Feed, d'autres comptes qui diffusent le faux message incluent Walter Bloomberg et Breaking Market News, qui ne sont pas non plus affiliés à la véritable société Bloomberg.

L'incident a mis en évidence les menaces potentielles que les images générées par l'IA peuvent représenter sur les réseaux sociaux, où des informations non vérifiées sont partagées à la hâte, et le système de vérification payant dans Twitter. En mars, de fausses images de l'arrestation de Donald Trump, créées à l'aide de Midjourney, sont devenues virales, et bien qu'elles aient été immédiatement qualifiées de fausses, elles semblaient extrêmement réalistes. De plus, beaucoup ont été induits en erreur par des images générées par l'IA du pape François dans une doudoune blanche.

Le pape en doudoune est une chose, mais une explosion au siège du département américain de la Défense en est une autre. Les conséquences peuvent être graves, comme le prouve la même bourse. Le Dow Jones Industrial Average a chuté de 85 points dans les quatre minutes après que le tweet soit devenu viral, mais s'est rapidement rétabli.

Une grande partie de la confusion entourant le faux tweet a été rendue possible par des changements dans le Twitter à l'époque d'Elon Musk. Il a licencié de nombreux modérateurs de contenu et largement automatisé le processus de vérification des comptes, le déplaçant vers un système où n'importe qui peut payer pour un chèque bleu. Les critiques disent que cette pratique rend la plate-forme plus vulnérable à la désinformation.

Twitter

Bien que les autorités aient été relativement rapides à reconnaître la photo de l'explosion comme un faux, la disponibilité de modèles de synthèse d'images tels que Midjourney et Stable Diffusion signifie que les faux convaincants ne nécessitent plus de talent artistique, laissant une certaine place à la désinformation. La facilité de créer des contrefaçons combinée à la nature virale de plateformes comme Twitter, signifie que de fausses informations peuvent se propager plus rapidement qu'elles ne peuvent être vérifiées.

Dans ce cas, l'image ne doit pas nécessairement être de haute qualité pour créer un impact négatif. Les experts disent que lorsque les gens veulent croire quelque chose, ils perdent leur vigilance et ne vérifient pas la véracité de l'information.

Lisez aussi:

S'inscrire
Avertir de
invité

0 Commentaires
Avis intégrés
Voir tous les commentaires