Root NationNovinkyIT novinkyKód napísaný umelou inteligenciou môže byť nebezpečný

Kód napísaný umelou inteligenciou môže byť nebezpečný

-

Algoritmy strojového učenia sú práve teraz v móde, pretože sa používajú na vytváranie akéhokoľvek druhu „pôvodného“ obsahu po tréningu na obrovských už existujúcich súboroch údajov. Kód generujúci umelú inteligenciu (AI) by však v budúcnosti mohol predstavovať skutočný problém pre bezpečnosť softvéru.

Systémy AI ako GitHub Copilot sľubujú, že uľahčia život programátorom vytvorením celých kúskov „nového“ kódu na základe textových údajov v prirodzenom jazyku a už existujúceho kontextu. Algoritmy generovania kódu však môžu tiež zaviesť faktor neistoty, ako nedávno zistila nová štúdia zahŕňajúca niekoľko vývojárov.

Ak sa pozrieme konkrétne na Codex, platformu umelej inteligencie vyvinutú spoločnosťou OpenAI, ktorá je tiež kódovacím nástrojom za vyššie uvedeným GitHub Copilot, na štúdii sa zúčastnilo 47 rôznych vývojárov. Od študentov až po skúsených profesionálov boli vyzvaní, aby použili Codex na riešenie problémov súvisiacich s bezpečnosťou v Pythone, JavaScripte, C a ďalších programovacích jazykoch na vysokej úrovni.

Kód napísaný umelou inteligenciou môže byť vo svojej podstate nebezpečný

Výskumníci poznamenali, že keď programátori mali prístup k AI Codexu, výsledný kód bol pravdepodobnejšie nesprávny alebo neistý v porovnaní s „manuálnymi“ riešeniami navrhnutými kontrolnou skupinou. Okrem toho programátori s riešeniami poháňanými AI častejšie hovorili, že ich nechránený kód je bezpečný, v porovnaní so spomínanou kontrolnou skupinou.

Ale Perry, postgraduálny študent na Stanfordskej univerzite a hlavný spoluautor štúdie, povedal, že "systémy generujúce kód v súčasnosti nemôžu nahradiť ľudských vývojárov." Vývojári môžu podľa neho využívať nástroje umelej inteligencie na vykonávanie úloh mimo ich kompetencie alebo na urýchlenie procesu programovania, v ktorom už majú určité zručnosti. Podľa autora štúdie by sa mali obávať oboch a vždy kontrolovať vygenerovaný kód.

Podľa Meghy Srivastavovej, postgraduálnej študentky na Stanforde a druhej spoluautorky štúdie, Codex nie je zbytočný: napriek nedostatkom „hlúpej“ AI môžu byť systémy na generovanie kódu užitočné, keď sa používajú na úlohy s nízkym rizikom. Okrem toho programátori, ktorí sa zúčastnili na štúdii, nemali veľa skúseností s bezpečnostnými záležitosťami, čo by mohlo pomôcť pri identifikácii zraniteľného alebo nebezpečného kódu, povedal Srivastava.

Kód napísaný AI môže byť vo svojej podstate nebezpečný

Algoritmy AI možno tiež vylepšiť, aby sa zlepšili návrhy kódovania, a spoločnosti vyvíjajúce svoje vlastné systémy môžu získať lepšie riešenia s modelom, ktorý generuje kód vhodnejší pre ich vlastné bezpečnostné postupy. Podľa autorov štúdie je technológia generovania kódu „vzrušujúcim“ vývojom a mnohí ľudia ju chcú používať. Ide len o to, že je potrebné urobiť ešte veľa práce pri hľadaní správnych riešení na odstránenie nedostatkov AI.

Môžete pomôcť Ukrajine v boji proti ruským útočníkom. Najlepším spôsobom, ako to urobiť, je darovať finančné prostriedky Ozbrojeným silám Ukrajiny prostredníctvom Zachrániť život alebo cez oficiálnu stránku NBU.

Tiež zaujímavé:

Dzherelotechspot
Prihlásiť Se
Upozorniť na
host

0 Komentáre
Vložené recenzie
Zobraziť všetky komentáre
Ďalšie články
Prihláste sa na odber aktualizácií
Teraz populárne