Root NationȘtiriștiri ITNeasteptat! (Nu). ChatGPT este folosit pentru a crea malware

Neasteptat! (Nu). ChatGPT este folosit pentru a crea malware

-

Cel mai popular chatbot din lume, ChatGPT, este folosit de atacatori pentru a crea noi tulpini de malware.

Firma de securitate cibernetică WithSecure a confirmat că a găsit în sălbăticie exemple de malware create de celebrul autor AI. Ceea ce face ChatGPT deosebit de periculos este că poate genera nenumărate variații de malware, făcându-le dificil de detectat.

Atacatorii pot pur și simplu să furnizeze ChatGPT exemple de cod rău intenționat existent și să îl instruiască să creeze noi tulpini bazate pe acestea, permițându-le să perpetueze malware-ul fără a cheltui aproape la fel de mult timp, efort și cunoștințe ca înainte.

Chat GPT

Vestea vine pe fondul multor discuții despre reglementarea AI pentru a preveni utilizarea acesteia în scopuri rău intenționate. Când ChatGPT a devenit extrem de popular în noiembrie anul trecut, nu existau reguli care să reglementeze utilizarea acestuia și, în decurs de o lună, a fost deturnat pentru a scrie e-mailuri și fișiere rău intenționate.

Există anumite măsuri de protecție în cadrul modelului care sunt menite să împiedice executarea solicitărilor rău intenționate, dar care pot fi ocolite de atacatori.

Juhani Hintikka, CEO al WithSecure, a declarat pentru Infosecurity că apărătorii securității cibernetice folosesc de obicei inteligența artificială pentru a găsi și filtra programele malware create manual de actorii amenințărilor.

Cu toate acestea, acest lucru pare să se schimbe acum, cu instrumente AI puternice precum ChatGPT disponibile gratuit. Instrumentele de acces de la distanță au fost folosite în scopuri ilegale, iar acum același lucru este valabil și pentru inteligența artificială.

Tim West, șeful departamentului de informații despre amenințări la WithSecure, a adăugat că „ChatGPT va sprijini ingineria software, atât într-un mod bun, cât și în cel rău, iar acest lucru ajută și reduce bariera de intrare pentru dezvoltatorii de software rău intenționați”.

Potrivit lui Hintikka, e-mailurile de phishing pe care le poate crea ChatGPT sunt de obicei observate de oameni și, pe măsură ce LLM-urile devin mai avansate, poate deveni mai dificil să preveniți astfel de escrocherii în viitorul apropiat.

Chat GPT

Mai mult, pe măsură ce succesul atacurilor atacatorilor crește într-un ritm alarmant, atacatorii reinvestesc și devin mai organizați, extinzând operațiunile prin externalizare și aprofundând înțelegerea inteligenței artificiale pentru a lansa atacuri mai de succes.

Hintikka a concluzionat că, privind viitorul peisaj al securității cibernetice, „va fi un joc de AI bună versus AI proastă”.

Citeste si:

DzhereloTechRadar
Inscrie-te
Notifică despre
oaspete

0 Comentarii
Recenzii încorporate
Vezi toate comentariile