Root NationNotiziaGiornale informaticoL'ex capo di Google ha paragonato l'intelligenza artificiale alle armi nucleari

L'ex capo di Google ha paragonato l'intelligenza artificiale alle armi nucleari

-

L'ex CEO di Google Eric Schmidt ha paragonato l'intelligenza artificiale (IA) alle armi nucleari e ha chiesto un regime di deterrenza, simile alla distruzione reciproca assicurata, che impedisca alle nazioni più potenti del mondo di distruggersi a vicenda.

L'ex capo di Google ha paragonato l'intelligenza artificiale alle armi nucleari

Schmidt ha parlato dei pericoli dell'intelligenza artificiale all'Aspen Security Forum il 22 luglio durante una discussione sulla sicurezza nazionale e l'IA. Alla domanda sul valore della moralità nella tecnologia, Schmidt ha spiegato che lui stesso era ingenuo riguardo al potere dell'informazione agli albori di Google. Ha quindi chiesto che la tecnologia corrisponda meglio all'etica e alla morale delle persone che servono e ha tracciato uno strano confronto tra intelligenza artificiale e armi nucleari.

Schmidt ha parlato del prossimo futuro, in cui Cina e Stati Uniti devono concludere un accordo sull'intelligenza artificiale. "Negli anni '50 e '60, abbiamo finito per creare un mondo in cui c'era una regola "senza sorprese" per i test nucleari e, di conseguenza, sono stati banditi", ha detto Schmidt. "Questo è un esempio dell'equilibrio tra fiducia o mancanza di fiducia, questa è la regola del 'senza sorprese'. Sono molto preoccupato che la visione degli Stati Uniti della Cina come corrotta o comunista o altro, e la visione della Cina dell'America come un perdente... permetteranno alle persone di dire: "Oh mio Dio, stanno combinando qualcosa", e poi qualcosa di incomprensibile inizierà... .

L'intelligenza artificiale e l'apprendimento automatico sono una tecnologia affascinante e spesso fraintesa. Fondamentalmente non è così intelligente come la gente pensa. Può creare opere d'arte di livello capolavoro, battere le persone in Starcraft II ed effettuare telefonate rudimentali per gli utenti. Tuttavia, i tentativi di fargli svolgere compiti più difficili, come guidare un'auto in una grande città, non hanno avuto successo.

Schmidt parla di un prossimo futuro immaginario in cui sia la Cina che gli Stati Uniti saranno preoccupati per problemi di sicurezza, che li costringeranno a stipulare una sorta di trattato per contenere l'IA. Ha ricordato gli anni '1950 e '60, quando la diplomazia sviluppò una serie di controlli sulle armi più letali del pianeta. Ma ci sono voluti un decennio di esplosioni nucleari e, soprattutto, la distruzione di Hiroshima e Nagasaki, perché la pace arrivasse prima della conclusione del Trattato per la messa al bando dei test nucleari, SALT II e altre leggi fondamentali.

Due città giapponesi distrutte dall'America alla fine della seconda guerra mondiale hanno ucciso decine di migliaia di persone e hanno dimostrato al mondo l'eterno orrore delle armi nucleari. Quindi i governi di Russia e Cina si sono precipitati ad acquisire armi. Il modo in cui conviviamo con la possibilità che queste armi vengano usate è ciò che è noto come Mutually Assured Destruction (MAD), una teoria della deterrenza che garantisce che se un paese lancia un'arma nucleare, è possibile che qualsiasi altro paese lo farà. Non usiamo le armi più distruttive del pianeta a causa della possibilità che distruggerà almeno la civiltà in tutto il mondo.

Nonostante i commenti colorati di Schmidt, non vogliamo o non abbiamo bisogno di MAD for AI. Innanzitutto, l'IA non ha ancora dimostrato il suo potere distruttivo rispetto alle armi nucleari. Ma le persone al potere temono questa nuova tecnologia, e di solito per le ragioni sbagliate. Le persone hanno persino proposto di cedere il controllo delle armi nucleari a un'intelligenza artificiale, credendo che sarebbe un arbitro del suo utilizzo migliore di un essere umano.

L'ex capo di Google ha paragonato l'IA alle armi nucleari

Il problema con l'intelligenza artificiale non è che ha il potere potenzialmente distruttivo di un'arma nucleare. Il punto è che l'intelligenza artificiale è valida solo quanto le persone che l'hanno sviluppata e che porta i valori dei suoi creatori. L'IA soffre del classico problema "spazzatura dentro, spazzatura fuori": algoritmi razzisti creano robot razzisti e tutta l'IA porta i pregiudizi dei suoi creatori.

Demis Hassabis, CEO di DeepMind, la società che ha addestrato l'IA che batte i giocatori di Starcraft II, sembra capirlo meglio di Schmidt. In un'intervista di luglio sul podcast di Lex Friedman, Friedman ha chiesto ad Hassabis come si può controllare una tecnologia potente come l'IA e come lo stesso Hassabis può evitare di essere corrotto da quel potere.

La risposta di Khasabi riguarda se stesso. "L'intelligenza artificiale è un'idea troppo grande", ha detto. "È importante chi crea l'IA, da quali culture provengono e quali sono i loro valori. I sistemi di IA impareranno da soli... ma il sistema rimarrà impresso con la cultura e i valori degli autori del sistema."

L'intelligenza artificiale è un riflesso del suo autore. Non può radere al suolo una città con un'esplosione di 1,2 megatoni. A meno che una persona non glielo insegni.

Puoi aiutare l'Ucraina a combattere contro gli invasori russi. Il modo migliore per farlo è donare fondi alle forze armate ucraine attraverso Salva Vita o tramite la pagina ufficiale NBU.

Leggi anche:

fontevice
Iscrizione
Avvisare su
ospite

0 Commenti
Recensioni incorporate
Visualizza tutti i commenti
Altri articoli
Iscriviti per gli aggiornamenti
Popolare ora