Root NationVijestiIT vijestiKod koji je napisala umjetna inteligencija može biti opasan

Kod koji je napisala umjetna inteligencija može biti opasan

-

Algoritmi strojnog učenja trenutno su u modi jer se koriste za stvaranje bilo kakvog "originalnog" sadržaja nakon obuke na ogromnim već postojećim skupovima podataka. Međutim, kod koji generira umjetna inteligencija (AI) mogao bi u budućnosti predstavljati pravi problem za sigurnost softvera.

AI sustavi kao što je GitHub Copilot obećavaju da će programerima olakšati život stvaranjem cijelih dijelova "novog" koda temeljenog na tekstualnim podacima na prirodnom jeziku i već postojećem kontekstu. Ali algoritmi za generiranje koda također mogu uvesti faktor nesigurnosti, kao što je nedavno otkrila nova studija u kojoj je sudjelovalo nekoliko programera.

Gledajući konkretno Codex, platformu umjetne inteligencije koju je razvio OpenAI, a koja je ujedno i motor koda iza spomenutog GitHub Copilota, u studiji je sudjelovalo 47 različitih programera. Od studenata do iskusnih profesionalaca, suočeni su s izazovom korištenja Codexa za rješavanje sigurnosnih problema u Pythonu, JavaScriptu, C i drugim programskim jezicima visoke razine.

Kod koji je napisala umjetna inteligencija može biti sam po sebi opasan

Istraživači su primijetili da kada su programeri imali pristup Codexovoj umjetnoj inteligenciji, veća je vjerojatnost da će rezultirajući kod biti netočan ili nesiguran u usporedbi s "ručnim" rješenjima koja je dizajnirala kontrolna skupina. Osim toga, programeri s rješenjima koja pokreću umjetna inteligencija češće će reći da je njihov nezaštićeni kod siguran, u usporedbi s gore spomenutom kontrolnom skupinom.

Ale Perry, diplomirani student na Sveučilištu Stanford i glavni koautor studije, rekao je da "sustavi za generiranje koda trenutno ne mogu zamijeniti ljudske programere". Prema njegovim riječima, programeri mogu koristiti alate umjetne inteligencije za obavljanje poslova izvan svoje nadležnosti ili za ubrzavanje procesa programiranja u kojem već posjeduju određene vještine. Prema autoru studije, trebali bi biti zabrinuti za oboje i uvijek provjeravati generirani kod.

Prema Meghi Srivastavi, studentici diplomskog studija na Stanfordu i drugoj koautorici studije, Codex nije beskoristan: unatoč nedostacima "glupe" umjetne inteligencije, sustavi za generiranje koda mogu biti korisni kada se koriste za zadatke niskog rizika. Osim toga, programeri koji su sudjelovali u studiji nisu imali puno iskustva u sigurnosnim pitanjima, što bi moglo pomoći u identificiranju ranjivog ili opasnog koda, rekao je Srivastava.

Kod koji je napisao AI može biti sam po sebi opasan

Algoritmi umjetne inteligencije također se mogu prilagoditi kako bi se poboljšali prijedlozi kodiranja, a tvrtke koje razvijaju vlastite sustave mogu dobiti bolja rješenja s modelom koji generira kod koji više odgovara njihovim sigurnosnim praksama. Prema autorima studije, tehnologija generiranja koda je "uzbudljiv" razvoj i mnogi ljudi je jedva čekaju koristiti. Samo treba još puno raditi na pronalaženju pravih rješenja za rješavanje nedostataka umjetne inteligencije.

Možete pomoći Ukrajini u borbi protiv ruskih osvajača. Najbolji način da to učinite je donirati sredstva Oružanim snagama Ukrajine putem Savelife ili putem službene stranice NBU.

Također zanimljivo:

Prijavite se
Obavijesti o
gost

0 Komentari
Ugrađene recenzije
Pogledaj sve komentare
Ostali članci
Pretplatite se na ažuriranja
Sada popularno