Root NationNachrichtenIT-NeuigkeitenUnerwartet! (NEIN). ChatGPT wird zur Erstellung von Malware verwendet

Unerwartet! (NEIN). ChatGPT wird zur Erstellung von Malware verwendet

-

Der weltweit beliebteste Chatbot, ChatGPT, wird von Angreifern verwendet, um neue Arten von Malware zu entwickeln.

Das Cybersicherheitsunternehmen WithSecure hat bestätigt, dass es in freier Wildbahn Beispiele für Malware gefunden hat, die vom berüchtigten KI-Autor erstellt wurde. Was ChatGPT besonders gefährlich macht, ist, dass es unzählige Variationen von Malware erzeugen kann, die es schwierig machen, sie zu erkennen.

Angreifer können ChatGPT einfach Beispiele für vorhandenen Schadcode zur Verfügung stellen und es anweisen, darauf basierend neue Stämme zu erstellen, sodass sie die Malware aufrechterhalten können, ohne annähernd so viel Zeit, Mühe und Wissen wie zuvor aufzuwenden.

ChatGPT

Die Nachricht kommt inmitten vieler Gespräche über die Regulierung der KI, um zu verhindern, dass sie für böswillige Zwecke verwendet wird. Als ChatGPT im vergangenen November große Popularität erlangte, gab es keine Regeln für seine Verwendung und innerhalb eines Monats wurde es gekapert, um bösartige E-Mails und Dateien zu schreiben.

Innerhalb des Modells gibt es bestimmte Sicherheitsvorkehrungen, die die Ausführung bösartiger Eingabeaufforderungen verhindern sollen, die jedoch von Angreifern umgangen werden können.

Juhani Hintikka, CEO von WithSecure, erklärte gegenüber Infosecurity, dass Cybersicherheitsverteidiger typischerweise künstliche Intelligenz nutzen, um von Bedrohungsakteuren manuell erstellte Malware zu finden und herauszufiltern.

Allerdings scheint sich das jetzt zu ändern, da leistungsstarke KI-Tools wie ChatGPT frei verfügbar sind. Fernzugriffstools wurden für illegale Zwecke eingesetzt, und nun gilt das Gleiche auch für künstliche Intelligenz.

Tim West, Leiter Threat Intelligence bei WithSecure, fügte hinzu: „ChatGPT wird die Softwareentwicklung sowohl im Guten als auch im Schlechten unterstützen, und das hilft und senkt die Eintrittsbarriere für bösartige Softwareentwickler.“

Laut Hintikka werden Phishing-E-Mails, die ChatGPT erstellen kann, normalerweise von Menschen bemerkt, und da LLMs immer fortschrittlicher werden, könnte es in naher Zukunft schwieriger werden, zu verhindern, dass sie auf solche Betrügereien hereinfallen.

ChatGPT

Da der Erfolg von Angreiferangriffen alarmierend zunimmt, investieren Angreifer darüber hinaus erneut und organisieren sich besser, indem sie ihre Abläufe durch Outsourcing ausweiten und ihr Verständnis der künstlichen Intelligenz vertiefen, um erfolgreichere Angriffe zu starten.

Hintikka kam zu dem Schluss, dass es mit Blick auf die zukünftige Landschaft der Cybersicherheit „ein Spiel zwischen guter KI und schlechter KI“ sein wird.

Lesen Sie auch:

QuelleTechradar
Anmelden
Benachrichtigen Sie über
Gast

0 Ihre Nachricht
Eingebettete Bewertungen
Alle Kommentare anzeigen
Andere Artikel
Abonnieren Sie Updates
Beliebt jetzt