Root NationNyheterIT-nyheterEt bilde av en "eksplosjon" nær Pentagon, generert av AI, gikk viralt inn Twitter

Et bilde av en "eksplosjon" nær Pentagon, generert av AI, gikk viralt inn Twitter

-

Nylig i Twitter et bilde dukket opp, som, som beskrivelsen sa, avbildet en eksplosjon som skjedde nær Pentagon. På grunn av dette ble det til og med et kortsiktig fall i markedet – S&P 500-indeksen falt med 0,29 %, men etter at det viste seg at bildet var falskt, kom indeksen seg opp igjen. Bildet ble lagt ut av en verifisert Bloomberg Feed-konto, som til tross for det blå merket ikke er tilknyttet Bloomberg medieselskap.

Bildet ble raskt gjenkjent som falskt. Den ble tilsynelatende generert ved hjelp av kunstig intelligens. Men før disse detaljene dukket opp, hadde desinformasjon allerede blitt spredt av forskjellige kontoer, inkludert skurken Russia Today (vel, hvem vil tvile).

Pentagon

Det falske bildet viser en stor sky av svart røyk ved siden av en bygning som vagt ligner Pentagon, med tilhørende tekst. Ved nærmere inspeksjon bekreftet lokale myndigheter at bildet ikke var en nøyaktig representasjon av Pentagon, og de uskarpe gjerdestolpene og bygningssøylene så ut som et ganske slurvete bilde laget med en AI-modell som Stable Diffusion.

Forfalskning

Bloomberg falsk konto før Twitter blokkerte det, hadde titusenvis av tweets, men mindre enn 1 følgere totalt, og det er uklart hvem som kjørte det og hva motivene var bak spredningen av det falske bildet. I tillegg til Bloomberg Feed, inkluderer andre kontoer som sprer den falske meldingen Walter Bloomberg og Breaking Market News, som heller ikke er tilknyttet det virkelige Bloomberg-selskapet.

Hendelsen fremhevet de potensielle truslene som AI-genererte bilder kan utgjøre på sosiale medier, der ubekreftet informasjon raskt blir delt, og det betalte bekreftelsessystemet i Twitter. I mars gikk falske bilder av Donald Trumps arrestasjon, laget med Midjourney, virale, og selv om de umiddelbart ble kalt falske, så de ekstremt realistiske ut. Mange ble også villedet av AI-genererte bilder av pave Frans i en hvit dunjakke.

Paven i dunjakke er én ting, men en eksplosjon i hovedkvarteret til det amerikanske forsvarsdepartementet er noe helt annet. Konsekvensene kan være alvorlige, noe det samme aksjemarkedet beviser. Dow Jones Industrial Average falt 85 poeng i løpet av de fire minuttene etter at tweeten gikk viralt, men kom seg raskt.

Mye av forvirringen rundt den falske tweeten ble muliggjort av endringer i Twitter under Elon Musks tid. Han sparket mange innholdsmoderatorer og automatiserte i stor grad kontoverifiseringsprosessen, og flyttet den til et system der hvem som helst kan betale for en blå sjekk. Kritikere sier at praksisen gjør plattformen mer sårbar for feilinformasjon.

Twitter

Selv om myndighetene var relativt raske til å gjenkjenne bildet av eksplosjonen som en falsk, betyr tilgjengeligheten av bildesyntesemodeller som Midjourney og Stable Diffusion at overbevisende forfalskninger ikke lenger krever kunstnerskap, noe som gir rom for desinformasjon. Det enkle å lage forfalskninger kombinert med den virale naturen til plattformer som Twitter, betyr at falsk informasjon kan spre seg raskere enn det kan verifiseres.

I dette tilfellet trenger ikke bildet nødvendigvis å være av høy kvalitet for å skape en negativ innvirkning. Eksperter sier at når folk vil tro noe, mister de årvåkenheten og sjekker ikke sannheten til informasjonen.

Les også:

DzhereloArsTechnica
Melde deg på
Gi beskjed om
gjest

0 Kommentar
Innebygde anmeldelser
Se alle kommentarer
Andre artikler
Abonner for oppdateringer
Populær nå