Root NationNyheterIT-nyheterOväntat! (Nej). ChatGPT används för att skapa skadlig programvara

Oväntat! (Nej). ChatGPT används för att skapa skadlig programvara

-

Världens mest populära chatbot, ChatGPT, används av angripare för att skapa nya stammar av skadlig programvara.

Cybersäkerhetsföretaget WithSecure har bekräftat att de har hittat exempel på skadlig programvara skapad av den ökända AI-författaren i naturen. Det som gör ChatGPT särskilt farligt är att det kan generera otaliga varianter av skadlig programvara, vilket gör dem svåra att upptäcka.

Angripare kan helt enkelt förse ChatGPT med exempel på befintlig skadlig kod och instruera den att skapa nya stammar baserat på dem, så att de kan vidmakthålla skadlig programvara utan att spendera nästan lika mycket tid, ansträngning och kunskap som tidigare.

ChatGPT

Nyheten kommer mitt i mycket prat om att reglera AI för att förhindra att den används i skadliga syften. När ChatGPT blev väldigt populärt i november förra året fanns det inga regler som styrde dess användning, och inom en månad kapades det för att skriva skadliga e-postmeddelanden och filer.

Det finns vissa säkerhetsåtgärder inom modellen som är avsedda att förhindra att skadliga uppmaningar exekveras, men som kan kringgås av angripare.

Juhani Hintikka, VD för WithSecure, berättade för Infosecurity att cybersäkerhetsförsvarare vanligtvis använder artificiell intelligens för att hitta och filtrera bort skadlig programvara som skapats manuellt av hotaktörer.

Det verkar dock förändras nu, med kraftfulla AI-verktyg som ChatGPT fritt tillgängliga. Fjärråtkomstverktyg har använts i illegala syften, och nu gäller samma sak för artificiell intelligens.

Tim West, chef för hotintelligens på WithSecure, tillade att "ChatGPT kommer att stödja mjukvaruutveckling, både på ett bra och dåligt sätt, och detta hjälper och sänker inträdesbarriären för skadliga mjukvaruutvecklare."

Enligt Hintikka uppmärksammas vanligtvis nätfiske-e-postmeddelanden som ChatGPT kan skapa av människor, och i takt med att LLM blir mer avancerade kan det bli svårare att förhindra att falla för sådana bedrägerier inom en snar framtid.

ChatGPT

Dessutom, när framgången för attacker ökar i en alarmerande takt, återinvesterar angriparna och blir mer organiserade, utökar verksamheten genom outsourcing och fördjupar sin förståelse för artificiell intelligens för att starta mer framgångsrika attacker.

Hintikka drog slutsatsen att när man tittar på det framtida landskapet för cybersäkerhet, "kommer det att vara ett spel av bra AI kontra dålig AI."

Läs också:

DzhereloTechradar
Bli Medlem
Meddela om
gäst

0 Kommentarer
Inbäddade recensioner
Visa alla kommentarer