Kategorije: IT vijesti

Kod koji je napisala umjetna inteligencija može biti opasan

Algoritmi strojnog učenja trenutno su u modi jer se koriste za stvaranje bilo kakvog "originalnog" sadržaja nakon obuke na ogromnim već postojećim skupovima podataka. Međutim, kod koji generira umjetna inteligencija (AI) mogao bi u budućnosti predstavljati pravi problem za sigurnost softvera.

AI sustavi kao što je GitHub Copilot obećavaju da će programerima olakšati život stvaranjem cijelih dijelova "novog" koda temeljenog na tekstualnim podacima na prirodnom jeziku i već postojećem kontekstu. Ali algoritmi za generiranje koda također mogu uvesti faktor nesigurnosti, kao što je nedavno otkrila nova studija u kojoj je sudjelovalo nekoliko programera.

Gledajući konkretno Codex, platformu umjetne inteligencije koju je razvio OpenAI, a koja je ujedno i motor koda iza spomenutog GitHub Copilota, u studiji je sudjelovalo 47 različitih programera. Od studenata do iskusnih profesionalaca, suočeni su s izazovom korištenja Codexa za rješavanje sigurnosnih problema u Pythonu, JavaScriptu, C i drugim programskim jezicima visoke razine.

Istraživači su primijetili da kada su programeri imali pristup Codexovoj umjetnoj inteligenciji, veća je vjerojatnost da će rezultirajući kod biti netočan ili nesiguran u usporedbi s "ručnim" rješenjima koja je dizajnirala kontrolna skupina. Osim toga, programeri s rješenjima koja pokreću umjetna inteligencija češće će reći da je njihov nezaštićeni kod siguran, u usporedbi s gore spomenutom kontrolnom skupinom.

Ale Perry, diplomirani student na Sveučilištu Stanford i glavni koautor studije, rekao je da "sustavi za generiranje koda trenutno ne mogu zamijeniti ljudske programere". Prema njegovim riječima, programeri mogu koristiti alate umjetne inteligencije za obavljanje poslova izvan svoje nadležnosti ili za ubrzavanje procesa programiranja u kojem već posjeduju određene vještine. Prema autoru studije, trebali bi biti zabrinuti za oboje i uvijek provjeravati generirani kod.

Prema Meghi Srivastavi, studentici diplomskog studija na Stanfordu i drugoj koautorici studije, Codex nije beskoristan: unatoč nedostacima "glupe" umjetne inteligencije, sustavi za generiranje koda mogu biti korisni kada se koriste za zadatke niskog rizika. Osim toga, programeri koji su sudjelovali u studiji nisu imali puno iskustva u sigurnosnim pitanjima, što bi moglo pomoći u identificiranju ranjivog ili opasnog koda, rekao je Srivastava.

Algoritmi umjetne inteligencije također se mogu prilagoditi kako bi se poboljšali prijedlozi kodiranja, a tvrtke koje razvijaju vlastite sustave mogu dobiti bolja rješenja s modelom koji generira kod koji više odgovara njihovim sigurnosnim praksama. Prema autorima studije, tehnologija generiranja koda je "uzbudljiv" razvoj i mnogi ljudi je jedva čekaju koristiti. Samo treba još puno raditi na pronalaženju pravih rješenja za rješavanje nedostataka umjetne inteligencije.

Možete pomoći Ukrajini u borbi protiv ruskih osvajača. Najbolji način da to učinite je donirati sredstva Oružanim snagama Ukrajine putem Savelife ili putem službene stranice NBU.

Također zanimljivo:

Podijeli
Julia Alexandrova

kafedžija. Fotograf. Pišem o znanosti i svemiru. Mislim da je prerano za susret s vanzemaljcima. Pratim razvoj robotike, za svaki slučaj...

Ostavi odgovor

Vaša adresa e-pošte neće biti objavljena. Obavezna polja su označena*