Root NationNoviceIT noviceNepričakovano! (Ne). ChatGPT se uporablja za ustvarjanje zlonamerne programske opreme

Nepričakovano! (Ne). ChatGPT se uporablja za ustvarjanje zlonamerne programske opreme

-

Najbolj priljubljenega klepetalnega robota na svetu, ChatGPT, napadalci uporabljajo za ustvarjanje novih vrst zlonamerne programske opreme.

Podjetje za kibernetsko varnost WithSecure je potrdilo, da je v naravi našlo primere zlonamerne programske opreme, ki jo je ustvaril zloglasni avtor AI. ChatGPT je še posebej nevaren, ker lahko ustvari nešteto različic zlonamerne programske opreme, zaradi česar jih je težko odkriti.

Napadalci lahko ChatGPT preprosto posredujejo primere obstoječe zlonamerne kode in mu naročijo, naj na podlagi njih ustvari nove različice, kar jim omogoči ohranjanje zlonamerne programske opreme, ne da bi porabili skoraj toliko časa, truda in znanja kot prej.

ChatGPT

Novica prihaja med veliko govora o regulaciji umetne inteligence, da bi preprečili njeno uporabo v zlonamerne namene. Ko je ChatGPT novembra lani postal zelo priljubljen, ni bilo nobenih pravil, ki bi urejala njegovo uporabo, in v enem mesecu so ga ugrabili za pisanje zlonamernih e-poštnih sporočil in datotek.

V modelu obstajajo določeni zaščitni ukrepi, ki naj bi preprečili izvajanje zlonamernih pozivov, vendar jih lahko napadalci zaobidejo.

Juhani Hintikka, izvršni direktor podjetja WithSecure, je za Infosecurity povedal, da zagovorniki kibernetske varnosti običajno uporabljajo umetno inteligenco za iskanje in filtriranje zlonamerne programske opreme, ki so jo ročno ustvarili akterji groženj.

Vendar se zdi, da se to zdaj spreminja, saj so zmogljiva orodja AI, kot je ChatGPT, prosto dostopna. Orodja za oddaljeni dostop so bila uporabljena v nezakonite namene, zdaj pa enako velja za umetno inteligenco.

Tim West, vodja oddelka za obveščanje o grožnjah pri WithSecure, je dodal, da bo "ChatGPT podpiral programsko inženirstvo, tako v dobrem kot v slabem smislu, in to pomaga in znižuje vstopne ovire za razvijalce zlonamerne programske opreme."

Po besedah ​​Hintikke e-poštna sporočila z lažnim predstavljanjem, ki jih lahko ustvari ChatGPT, običajno opazijo ljudje, in ko LLM postanejo naprednejši, bo morda v bližnji prihodnosti težje preprečiti, da bi nasedli takšnim prevaram.

ChatGPT

Še več, medtem ko se uspešnost napadov napadalcev povečuje z zaskrbljujočo hitrostjo, napadalci ponovno vlagajo in postajajo bolj organizirani, širijo operacije z zunanjim izvajanjem in poglabljajo svoje razumevanje umetne inteligence za zagon uspešnejših napadov.

Hintikka je zaključil, da bo glede na prihodnjo pokrajino kibernetske varnosti "to igra dobre umetne inteligence proti slabi umetni inteligenci."

Preberite tudi:

Jerelotechradar
Prijavite se
Obvesti o
gost

0 Komentarji
Vdelana mnenja
Prikaži vse komentarje