Venerdì 29 marzo 2024

desktop v4.2.1

Root NationНовиниGiornale informaticoIl codice scritto dall'intelligenza artificiale può essere pericoloso

Il codice scritto dall'intelligenza artificiale può essere pericoloso

-

Gli algoritmi di apprendimento automatico sono di gran moda in questo momento, poiché vengono utilizzati per creare qualsiasi tipo di contenuto "originale" dopo l'addestramento su enormi set di dati preesistenti. Tuttavia, la generazione di codice di intelligenza artificiale (AI) potrebbe rappresentare un vero problema per la sicurezza del software in futuro.

I sistemi di intelligenza artificiale come GitHub Copilot promettono di semplificare la vita dei programmatori creando interi blocchi di "nuovo" codice basato su dati di testo in linguaggio naturale e contesto preesistente. Ma gli algoritmi di generazione del codice possono anche introdurre un fattore di insicurezza, come scoperto di recente da un nuovo studio che coinvolge diversi sviluppatori.

Guardando specificamente Codex, la piattaforma di intelligenza artificiale sviluppata da OpenAI che è anche il motore di codice dietro il già citato GitHub Copilot, 47 diversi sviluppatori hanno partecipato allo studio. Da studenti a professionisti esperti, sono stati sfidati a utilizzare Codex per risolvere problemi relativi alla sicurezza in Python, JavaScript, C e altri linguaggi di programmazione di alto livello.

Il codice scritto dall'intelligenza artificiale può essere intrinsecamente pericoloso

I ricercatori hanno notato che quando i programmatori avevano accesso all'intelligenza artificiale del Codex, era più probabile che il codice risultante fosse errato o insicuro rispetto alle soluzioni "manuali" progettate da un gruppo di controllo. Inoltre, i programmatori con soluzioni basate sull'intelligenza artificiale erano più propensi a dichiarare che il loro codice non protetto era sicuro, rispetto al suddetto gruppo di controllo.

Ale Perry, uno studente laureato presso la Stanford University e coautore principale dello studio, ha affermato che "i sistemi di generazione di codice non possono attualmente sostituire gli sviluppatori umani". Secondo lui, gli sviluppatori possono utilizzare strumenti di intelligenza artificiale per eseguire compiti al di fuori delle loro competenze o per accelerare il processo di programmazione in cui hanno già determinate abilità. Secondo l'autore dello studio, dovrebbero preoccuparsi di entrambi e controllare sempre il codice generato.

Secondo Megha Srivastava, una studentessa laureata a Stanford e seconda coautrice dello studio, il Codex non è inutile: nonostante le carenze dell'intelligenza artificiale "stupida", i sistemi di generazione del codice possono essere utili se utilizzati per compiti a basso rischio. Inoltre, i programmatori che hanno partecipato allo studio non avevano molta esperienza in materia di sicurezza, il che potrebbe aiutare a identificare codici vulnerabili o pericolosi, ha affermato Srivastava.

Il codice scritto dall'intelligenza artificiale può essere intrinsecamente pericoloso

Gli algoritmi AI possono anche essere ottimizzati per migliorare i suggerimenti di codifica e le aziende che sviluppano i propri sistemi possono ottenere soluzioni migliori con un modello che genera codice più adatto alle proprie pratiche di sicurezza. Secondo gli autori dello studio, la tecnologia di generazione del codice è uno sviluppo "entusiasmante" e molte persone sono ansiose di usarla. È solo che c'è ancora molto lavoro da fare per trovare le giuste soluzioni per affrontare le carenze dell'IA.

Puoi aiutare l'Ucraina a combattere contro gli invasori russi. Il modo migliore per farlo è donare fondi alle forze armate ucraine attraverso Salva Vita o tramite la pagina ufficiale NBU.

Interessante anche:

Iscrizione
Avvisare su
ospite

0 Commenti
Recensioni incorporate
Visualizza tutti i commenti
Altri articoli
Iscriviti per gli aggiornamenti

Commenti recenti

Popolare ora
0
Adoriamo i tuoi pensieri, per favore commenta.x