Fredag ​​den 29. marts 2024

Desktop v4.2.1

Root NationНовиниIT nyhederEt billede af en "eksplosion" nær Pentagon, genereret af AI, gik viralt ind Twitter

Et billede af en "eksplosion" nær Pentagon, genereret af AI, gik viralt ind Twitter

-

For nylig i Twitter dukkede et foto op, som, som beskrivelsen sagde, afbildede en eksplosion, der fandt sted nær Pentagon. På grund af dette var der endda et kortsigtet fald i markedet – S&P 500-indekset faldt med 0,29 %, men efter at det viste sig, at billedet var falsk, kom indekset sig igen. Billedet blev postet af en verificeret Bloomberg Feed-konto, som på trods af sit blå flueben ikke er tilknyttet Bloomberg medieselskab.

Billedet blev hurtigt genkendt som falsk. Det blev tilsyneladende genereret ved hjælp af kunstig intelligens. Men før disse detaljer dukkede op, var desinformation allerede blevet spredt af forskellige konti, inklusive svinet Russia Today (nå, hvem ville tvivle).

Pentagon

Det falske billede viser en stor fane af sort røg ved siden af ​​en bygning, der vagt ligner Pentagon, med tilhørende tekst. Ved nærmere eftersyn bekræftede de lokale myndigheder, at billedet ikke var en nøjagtig gengivelse af Pentagon, og de slørede hegnspæle og bygningssøjler lignede et ret sjusket billede skabt ved hjælp af en AI-model som Stable Diffusion.

falsk

Bloomberg falsk konto før Twitter blokerede det, havde titusindvis af tweets, men mindre end 1 samlede følgere, og det er uklart, hvem der kørte det, eller hvad motivationen bag det falske billede var. Ud over Bloomberg Feed er andre konti, der spreder det falske budskab, Walter Bloomberg og Breaking Market News, som heller ikke er tilknyttet det rigtige Bloomberg-selskab.

Hændelsen fremhævede de potentielle trusler, som AI-genererede billeder kan udgøre på sociale medier, hvor ubekræftede oplysninger hurtigt deles, og det betalte verifikationssystem i Twitter. I marts gik falske billeder af Donald Trumps anholdelse, skabt ved hjælp af Midjourney, virale, og selvom de straks blev kaldt falske, så de ekstremt realistiske ud. Også mange blev vildledt af AI-genererede billeder af pave Frans i en hvid dunjakke.

Paven i en dunjakke er én ting, men en eksplosion i det amerikanske forsvarsministeriums hovedkvarter er noget helt andet. Konsekvenserne kan være alvorlige, hvilket samme aktiemarked beviser. Dow Jones Industrial Average faldt 85 point i de fire minutter efter, at tweetet gik viralt, men kom sig hurtigt.

Meget af forvirringen omkring det falske tweet blev muliggjort af ændringer i Twitter i Elon Musks tid. Han fyrede mange indholdsmoderatorer og automatiserede stort set kontobekræftelsesprocessen og flyttede den til et system, hvor alle kan betale for en blå check. Kritikere siger, at praksis gør platformen mere sårbar over for misinformation.

Twitter

Selvom myndighederne var relativt hurtige til at genkende billedet af eksplosionen som en falsk, betyder tilgængeligheden af ​​billedsyntesemodeller som Midjourney og Stable Diffusion, at overbevisende forfalskninger ikke længere kræver kunstneriskhed, hvilket giver plads til desinformation. Nemheden ved at skabe forfalskninger kombineret med den virale karakter af platforme som Twitter, betyder, at falsk information kan spredes hurtigere, end den kan verificeres.

I dette tilfælde behøver billedet ikke nødvendigvis at være af høj kvalitet for at skabe en negativ effekt. Eksperter siger, at når folk vil tro på noget, mister de deres årvågenhed og kontrollerer ikke rigtigheden af ​​oplysningerne.

Læs også:

Dzhereloarttechnica
Tilmelde
Giv besked om
gæst

0 Kommentarer
Indlejrede anmeldelser
Se alle kommentarer
Andre artikler
Abonner for opdateringer

Seneste kommentarer

Populær nu
0
Vi elsker dine tanker, kommenter venligst.x
()
x