Root NationNotiziaGiornale informaticoInaspettatamente! (NO). ChatGPT viene utilizzato per creare malware

Inaspettatamente! (NO). ChatGPT viene utilizzato per creare malware

-

Il chatbot più popolare al mondo, ChatGPT, viene utilizzato dagli aggressori per creare nuovi ceppi di malware.

La società di sicurezza informatica WithSecure ha confermato di aver trovato esempi di malware creati dal famigerato autore di intelligenza artificiale in natura. Ciò che rende ChatGPT particolarmente pericoloso è che può generare innumerevoli varianti di malware, rendendole difficili da rilevare.

Gli aggressori possono semplicemente fornire a ChatGPT esempi di codice dannoso esistente e istruirlo a creare nuovi ceppi basati su di essi, consentendo loro di perpetuare il malware senza spendere quasi lo stesso tempo, impegno e conoscenza di prima.

ChatGPT

La notizia arriva tra i tanti discorsi sulla regolamentazione dell'intelligenza artificiale per impedire che venga utilizzata per scopi dannosi. Quando ChatGPT è diventato molto popolare lo scorso novembre, non c'erano regole che ne regolassero l'uso e nel giro di un mese è stato dirottato per scrivere e-mail e file dannosi.

Esistono alcune protezioni all'interno del modello che hanno lo scopo di impedire l'esecuzione di prompt dannosi, ma possono essere aggirate dagli aggressori.

Juhani Hintikka, CEO di WithSecure, ha dichiarato a Infosecurity che i difensori della sicurezza informatica in genere utilizzano l'intelligenza artificiale per trovare e filtrare il malware creato manualmente dagli attori delle minacce.

Tuttavia, ora sembra che le cose stiano cambiando, con potenti strumenti di intelligenza artificiale come ChatGPT disponibili gratuitamente. Gli strumenti di accesso remoto sono stati utilizzati per scopi illegali e ora lo stesso vale per l'intelligenza artificiale.

Tim West, responsabile dell'intelligence sulle minacce di WithSecure, ha aggiunto che "ChatGPT supporterà l'ingegneria del software, sia in modo positivo che negativo, e questo aiuta e riduce la barriera all'ingresso per gli sviluppatori di software dannosi".

Secondo Hintikka, le e-mail di phishing che ChatGPT può creare vengono solitamente notate dalle persone e, man mano che gli LLM diventano più avanzati, potrebbe diventare più difficile evitare di cadere in tali truffe nel prossimo futuro.

ChatGPT

Inoltre, poiché il successo degli attacchi degli aggressori aumenta a un ritmo allarmante, gli aggressori stanno reinvestindo e diventando più organizzati, espandendo le operazioni attraverso l'outsourcing e approfondendo la loro comprensione dell'intelligenza artificiale per lanciare attacchi più efficaci.

Hintikka ha concluso che, guardando al panorama futuro della sicurezza informatica, "sarà un gioco di IA buona contro IA cattiva".

Leggi anche:

Iscrizione
Avvisare su
ospite

0 Commenti
Recensioni incorporate
Visualizza tutti i commenti