Root NationVijestiIT vijestiKod koji je napisala umjetna inteligencija može biti opasan

Kod koji je napisala umjetna inteligencija može biti opasan

-

Algoritmi mašinskog učenja su trenutno u modi jer se koriste za kreiranje bilo koje vrste "originalnog" sadržaja nakon obuke na ogromnim već postojećim skupovima podataka. Međutim, kod koji generiše veštačku inteligenciju (AI) mogao bi predstavljati pravi problem za sigurnost softvera u budućnosti.

Sistemi veštačke inteligencije kao što je GitHub Copilot obećavaju da će olakšati život programera stvaranjem celih delova "novog" koda zasnovanog na tekstualnim podacima na prirodnom jeziku i već postojećem kontekstu. Ali algoritmi za generiranje koda također mogu uvesti faktor nesigurnosti, kao što je nedavno otkrila nova studija koja uključuje nekoliko programera.

Posmatrajući posebno Codex, platformu za umjetnu inteligenciju koju je razvio OpenAI, a koja je ujedno i motor koda iza gore spomenutog GitHub Copilot-a, 47 različitih programera je učestvovalo u studiji. Od studenata do iskusnih profesionalaca, bili su pred izazovom da koriste Codex za rješavanje sigurnosnih problema u Python-u, JavaScript-u, C-u i drugim programskim jezicima visokog nivoa.

Kod napisan od strane umjetne inteligencije može biti opasan

Istraživači su primetili da kada su programeri imali pristup Codexovoj veštačkoj inteligenciji, veća je verovatnoća da će rezultujući kod biti netačan ili nesiguran u poređenju sa "ručnim" rešenjima dizajniranim od strane kontrolne grupe. Osim toga, programeri sa rješenjima na bazi umjetne inteligencije češće će reći da je njihov nezaštićeni kod bezbjedan, u poređenju sa prethodno spomenutom kontrolnom grupom.

Ale Perry, diplomirani student na Univerzitetu Stanford i vodeći koautor studije, rekao je da "sistemi za generiranje koda trenutno ne mogu zamijeniti ljudske programere". Prema njegovim riječima, programeri mogu koristiti alate umjetne inteligencije za obavljanje zadataka izvan svoje nadležnosti ili za ubrzavanje procesa programiranja u kojem već posjeduju određene vještine. Prema autoru studije, oni bi trebali biti zabrinuti za oboje i uvijek provjeriti generirani kod.

Prema Megi Srivastavi, studentkinji na Stanfordu i drugoj koautorci studije, Codex nije beskorisan: uprkos nedostacima „glupe“ veštačke inteligencije, sistemi za generisanje koda mogu biti korisni kada se koriste za niskorizične zadatke. Pored toga, programeri koji su učestvovali u studiji nisu imali mnogo iskustva u bezbednosnim pitanjima, što bi moglo da pomogne u identifikaciji ranjivog ili opasnog koda, rekao je Srivastava.

Kod koji je napisao AI može biti opasan

Algoritmi umjetne inteligencije također se mogu podesiti kako bi se poboljšali prijedlozi kodiranja, a kompanije koje razvijaju vlastite sisteme mogu dobiti bolja rješenja s modelom koji generiše kod koji više odgovara njihovim vlastitim sigurnosnim praksama. Prema autorima studije, tehnologija generisanja koda je "uzbudljiv" razvoj i mnogi ljudi su željni da je koriste. Samo još uvijek ima puno posla da se uradi u pronalaženju pravih rješenja za rješavanje nedostataka umjetne inteligencije.

Možete pomoći Ukrajini u borbi protiv ruskih osvajača. Najbolji način da to učinite je da donirate sredstva Oružanim snagama Ukrajine putem Savelife ili preko službene stranice NBU.

Također zanimljivo:

Jerelotechspot
Prijaviti se
Obavijesti o
gost

0 Komentari
Embedded Reviews
Pogledaj sve komentare
Ostali članci
Pretplatite se na ažuriranja
Popularno sada