Root NationNachrichtenIT-NeuigkeitenEin von KI erzeugtes Foto einer „Explosion“ in der Nähe des Pentagons ging viral Twitter

Ein von KI erzeugtes Foto einer „Explosion“ in der Nähe des Pentagons ging viral Twitter

-

Kürzlich in Twitter Es tauchte ein Foto auf, das, wie in der Beschreibung angegeben, eine Explosion in der Nähe des Pentagons zeigte. Aus diesem Grund kam es sogar zu einem kurzfristigen Rückgang des Marktes – der S&P 500-Index fiel um 0,29 %, aber nachdem sich herausstellte, dass das Foto gefälscht war, erholte sich der Index. Das Bild wurde von einem verifizierten Bloomberg-Feed-Konto gepostet, das trotz seines blauen Häkchens nicht mit dem Medienunternehmen Bloomberg verbunden ist.

Das Foto wurde schnell als Fälschung erkannt. Es wurde offenbar mit Hilfe künstlicher Intelligenz generiert. Doch bevor diese Details ans Licht kamen, hatten verschiedene Berichte bereits Desinformationen verbreitet, darunter auch der Dreckskerl „Russia Today“ (nun, wer würde das bezweifeln).

Pentagon

Das gefälschte Bild zeigt eine große schwarze Rauchwolke neben einem Gebäude, das entfernt an das Pentagon erinnert, mit dazugehörigem Text. Bei näherer Betrachtung bestätigten die örtlichen Behörden, dass das Bild keine genaue Darstellung des Pentagons war und die verschwommenen Zaunpfosten und Gebäudesäulen wie ein ziemlich schlampiges Bild aussahen, das mit einem KI-Modell wie Stable Diffusion erstellt wurde.

Fälschung

Bloomberg-Fake-Account vor Twitter hat es blockiert, hatte Zehntausende Tweets, aber insgesamt weniger als 1 Follower, und es ist unklar, wer es betrieben hat oder was die Motivation hinter dem gefälschten Bild war. Neben Bloomberg Feed gibt es weitere Konten, die die Falschmeldung verbreiten, darunter Walter Bloomberg und Breaking Market News, die ebenfalls nicht mit dem echten Bloomberg-Unternehmen verbunden sind.

Der Vorfall verdeutlichte die potenzielle Bedrohung, die von KI-generierten Bildern in sozialen Medien ausgehen kann, wo unbestätigte Informationen hastig weitergegeben werden und das kostenpflichtige Verifizierungssystem in Twitter. Im März gingen gefälschte Bilder von Donald Trumps Verhaftung, die mit Midjourney erstellt wurden, viral, und obwohl sie sofort als Fake bezeichnet wurden, sahen sie äußerst realistisch aus. Viele wurden auch durch KI-generierte Bilder von Papst Franziskus in einer weißen Daunenjacke in die Irre geführt.

Der Papst in einer Daunenjacke ist eine Sache, aber eine Explosion im Hauptquartier des US-Verteidigungsministeriums ist eine ganz andere. Die Folgen können schwerwiegend sein, wie die gleiche Börse beweist. Der Dow Jones Industrial Average fiel in den vier Minuten, nachdem der Tweet viral ging, um 85 Punkte, erholte sich aber schnell wieder.

Ein Großteil der Verwirrung rund um den Fake-Tweet wurde durch Änderungen im Tweet ermöglicht Twitter zur Zeit von Elon Musk. Er entließ viele Content-Moderatoren und automatisierte den Kontoverifizierungsprozess weitgehend, indem er ihn auf ein System umstellte, bei dem jeder für einen blauen Scheck bezahlen kann. Kritiker sagen, die Praxis mache die Plattform anfälliger für Fehlinformationen.

Twitter

Obwohl die Behörden das Foto der Explosion relativ schnell als Fälschung erkannten, bedeutet die Verfügbarkeit von Bildsynthesemodellen wie Midjourney und Stable Diffusion, dass überzeugende Fälschungen keine künstlerischen Fähigkeiten mehr erfordern, was Raum für Desinformation lässt. Die Leichtigkeit, Fälschungen zu erstellen, kombiniert mit der viralen Natur von Plattformen wie Twitter, bedeutet, dass sich falsche Informationen schneller verbreiten können, als sie überprüft werden können.

In diesem Fall muss das Bild nicht unbedingt von hoher Qualität sein, um eine negative Wirkung zu erzielen. Experten sagen, wenn Menschen etwas glauben wollen, verlieren sie ihre Wachsamkeit und prüfen nicht den Wahrheitsgehalt der Informationen.

Lesen Sie auch:

Anmelden
Benachrichtigen Sie über
Gast

0 Ihre Nachricht
Eingebettete Bewertungen
Alle Kommentare anzeigen