Root NationZprávyIT novinyKód napsaný umělou inteligencí může být nebezpečný

Kód napsaný umělou inteligencí může být nebezpečný

-

Algoritmy strojového učení jsou teď v módě, protože se používají k vytváření jakéhokoli druhu „původního“ obsahu po školení na obrovských již existujících souborech dat. Umělá inteligence (AI) generující kód však může v budoucnu představovat skutečný problém pro zabezpečení softwaru.

Systémy umělé inteligence jako GitHub Copilot slibují, že programátorům usnadní život tím, že vytvoří celé kusy „nového“ kódu založeného na textových datech v přirozeném jazyce a již existujícím kontextu. Algoritmy generování kódu však mohou také zavést faktor nejistoty, jak nedávno zjistila nová studie zahrnující několik vývojářů.

Podíváme-li se konkrétně na Codex, platformu umělé inteligence vyvinutou OpenAI, která je také kódovým enginem za výše zmíněným GitHub Copilot, studie se zúčastnilo 47 různých vývojářů. Od studentů po zkušené profesionály byli vyzváni, aby používali Codex k řešení problémů souvisejících s bezpečností v Pythonu, JavaScriptu, C a dalších programovacích jazycích na vysoké úrovni.

Kód napsaný umělou inteligencí může být ze své podstaty nebezpečný

Výzkumníci poznamenali, že když programátoři měli přístup k AI Codexu, výsledný kód byl pravděpodobněji nesprávný nebo nezabezpečený ve srovnání s „ručními“ řešeními navrženými kontrolní skupinou. Navíc programátoři s řešeními poháněnými umělou inteligencí častěji tvrdili, že jejich nechráněný kód je bezpečný, ve srovnání s výše zmíněnou kontrolní skupinou.

Ale Perry, postgraduální student na Stanfordské univerzitě a hlavní spoluautor studie, řekl, že „systémy generující kód v současnosti nemohou nahradit lidské vývojáře“. Vývojáři podle něj mohou využívat nástroje umělé inteligence k plnění úkolů mimo jejich kompetenci nebo k urychlení procesu programování, ve kterém už mají určité dovednosti. Podle autora studie by se měli obávat obojího a vždy zkontrolovat vygenerovaný kód.

Podle Meghy Srivastavové, postgraduální studentky na Stanfordu a druhé spoluautorky studie, není Codex zbytečný: navzdory nedostatkům „hloupé“ umělé inteligence mohou být systémy pro generování kódu užitečné, když se používají pro úkoly s nízkým rizikem. Navíc programátoři, kteří se studie zúčastnili, neměli mnoho zkušeností s bezpečnostními záležitostmi, což by mohlo pomoci při identifikaci zranitelného nebo nebezpečného kódu, řekl Srivastava.

Kód napsaný umělou inteligencí může být ze své podstaty nebezpečný

Algoritmy umělé inteligence lze také vylepšit, aby se zlepšily návrhy kódování, a společnosti vyvíjející své vlastní systémy mohou získat lepší řešení s modelem, který generuje kód vhodnější pro jejich vlastní bezpečnostní postupy. Podle autorů studie je technologie generování kódu „vzrušující“ vývoj a mnoho lidí touží ji používat. Jde jen o to, že je ještě potřeba udělat hodně práce při hledání správných řešení, jak řešit nedostatky AI.

Můžete pomoci Ukrajině v boji proti ruským vetřelcům. Nejlepším způsobem, jak toho dosáhnout, je darovat finanční prostředky ozbrojeným silám Ukrajiny prostřednictvím Zachraňte život nebo přes oficiální stránku NBÚ.

Zajímavé také:

Dzherelotechspot
Přihlásit se
Upozornit na
host

0 Komentáře
Vložené recenze
Zobrazit všechny komentáře
Další články
Přihlaste se k odběru aktualizací
Nyní populární