Root NationNieuwsIT-nieuwsOnverwacht! (Nee). ChatGPT wordt gebruikt om malware te maken

Onverwacht! (Nee). ChatGPT wordt gebruikt om malware te maken

-

's Werelds populairste chatbot, ChatGPT, wordt door aanvallers gebruikt om nieuwe soorten malware te creëren.

Cyberbeveiligingsbedrijf WithSecure heeft bevestigd dat het voorbeelden heeft gevonden van malware die in het wild is gemaakt door de beruchte AI-auteur. Wat ChatGPT bijzonder gevaarlijk maakt, is dat het talloze varianten van malware kan genereren, waardoor ze moeilijk te detecteren zijn.

Aanvallers kunnen ChatGPT simpelweg voorbeelden van bestaande kwaadaardige code geven en het instrueren om op basis daarvan nieuwe stammen te creëren, waardoor ze de malware kunnen voortzetten zonder bijna evenveel tijd, moeite en kennis te besteden als voorheen.

ChatGPT

Het nieuws komt terwijl er veel wordt gesproken over het reguleren van AI om te voorkomen dat het voor kwaadaardige doeleinden wordt gebruikt. Toen ChatGPT afgelopen november razend populair werd, waren er geen regels voor het gebruik ervan en binnen een maand werd het gekaapt om kwaadaardige e-mails en bestanden te schrijven.

Er zijn bepaalde beveiligingen in het model die bedoeld zijn om te voorkomen dat kwaadaardige prompts worden uitgevoerd, maar die door aanvallers kunnen worden omzeild.

Juhani Hintikka, CEO van WithSecure, vertelde Infosecurity dat cyberbeveiligingsverdedigers doorgaans kunstmatige intelligentie gebruiken om handmatig door bedreigingsactoren gemaakte malware te vinden en eruit te filteren.

Dat lijkt nu echter te veranderen, met krachtige AI-tools zoals ChatGPT die gratis beschikbaar zijn. Hulpmiddelen voor externe toegang zijn gebruikt voor illegale doeleinden en nu geldt hetzelfde voor kunstmatige intelligentie.

Tim West, hoofd bedreigingsinformatie bij WithSecure, voegde eraan toe dat "ChatGPT software-engineering zal ondersteunen, zowel op een goede als slechte manier, en dit helpt en verlaagt de toegangsdrempel voor kwaadwillende softwareontwikkelaars."

Volgens Hintikka worden phishing-e-mails die ChatGPT kan maken meestal opgemerkt door mensen, en naarmate LLM's geavanceerder worden, kan het moeilijker worden om te voorkomen dat je in de nabije toekomst voor dergelijke zwendelpraktijken valt.

ChatGPT

Bovendien, naarmate het succes van aanvallers in een alarmerend tempo toeneemt, herinvesteren aanvallers en worden ze meer georganiseerd, breiden ze hun activiteiten uit door middel van outsourcing en verdiepen ze hun begrip van kunstmatige intelligentie om meer succesvolle aanvallen uit te voeren.

Hintikka concludeerde dat, kijkend naar het toekomstige landschap van cyberbeveiliging, "het een spel zal zijn van goede AI versus slechte AI."

Lees ook:

Aanmelden
Informeer over
gast

0 Heb je vragen? Stel ze hier.
Ingesloten beoordelingen
Bekijk alle reacties
Andere artikelen
Schrijf je in voor updates
Nu populair