Root NationZprávyIT novinyBývalý šéf Googlu přirovnal umělou inteligenci k jaderným zbraním

Bývalý šéf Googlu přirovnal umělou inteligenci k jaderným zbraním

-

Bývalý generální ředitel společnosti Google Eric Schmidt přirovnal umělou inteligenci (AI) k jaderným zbraním a vyzval k odstrašujícímu režimu podobnému vzájemnému zaručenému zničení, který zabrání nejmocnějším zemím světa, aby se navzájem ničily.

Bývalý šéf Googlu přirovnal umělou inteligenci k jaderným zbraním

Schmidt hovořil o nebezpečí umělé inteligence na Aspen Security Forum 22. července během diskuse o národní bezpečnosti a AI. Když se ho zeptali na hodnotu morálky v technologii, Schmidt vysvětlil, že on sám byl naivní ohledně síly informací v počátcích Googlu. Poté vyzval k tomu, aby technologie lépe odpovídala etice a morálce lidí, kterým slouží, a vytáhl podivné srovnání mezi umělou inteligencí a jadernými zbraněmi.

Schmidt hovořil o blízké budoucnosti, ve které Čína a Spojené státy potřebují uzavřít dohodu o umělé inteligenci. "V 50. a 60. letech jsme nakonec vytvořili svět, kde pro jaderné testy existovalo pravidlo 'žádná překvapení', a v důsledku toho byly zakázány," řekl Schmidt. „Toto je příklad rovnováhy důvěry nebo nedostatku důvěry, toto je pravidlo ‚žádná překvapení‘. Velmi mě znepokojuje, že americký pohled na Čínu jako zkorumpovanou nebo komunistickou nebo cokoli jiného a čínský pohled na Ameriku jako na poraženého... umožní lidem říkat: "Ach můj bože, oni něco chystají," a pak začne něco nepochopitelného... .

AI a strojové učení je fascinující a často nepochopená technologie. V podstatě není tak chytrý, jak si lidé myslí. Může vytvářet umělecká díla na úrovni mistrovských děl, porážet lidi ve Starcraft II a provádět základní telefonní hovory pro uživatele. Pokusy o to, aby plnilo náročnější úkoly, jako je řízení auta ve velkém městě, však nebyly úspěšné.

Schmidt hovoří o pomyslné blízké budoucnosti, ve které se Čína i USA budou zajímat o bezpečnostní otázky, což je donutí uzavřít jakousi smlouvu o omezení AI. Vzpomněl si na 1950. a 60. léta, kdy diplomacie vyvinula řadu kontrol kolem nejnebezpečnějších zbraní na planetě. Trvalo však deset let jaderných výbuchů a, co je nejdůležitější, zničení Hirošimy a Nagasaki, než nastal mír před uzavřením Smlouvy o zákazu jaderných zkoušek, SALT II a dalších významných právních předpisů.

Dvě japonská města zničená Amerikou na konci druhé světové války vzala životy desetitisícům lidí a dokázala světu věčnou hrůzu jaderných zbraní. Poté se vlády Ruska a Číny vrhly na získání zbraní. Způsob, jakým žijeme s možností, že tyto zbraně budou použity, je to, co je známé jako Mutually Assured Destruction (MAD), teorie odstrašení, která zajišťuje, že pokud jedna země vypustí jadernou zbraň, je možné, že ji vypustí jakákoli jiná země. Nepoužíváme ty nejničivější zbraně na planetě kvůli možnosti, že to zničí alespoň civilizaci na celém světě.

Navzdory Schmidtovým barvitým komentářům MAD pro AI nechceme ani nepotřebujeme. Za prvé, umělá inteligence dosud neprokázala svou ničivou sílu ve srovnání s jadernými zbraněmi. Ale lidé u moci se této nové technologie bojí a obvykle ze špatných důvodů. Lidé dokonce navrhli předat kontrolu nad jadernými zbraněmi umělé inteligenci, protože věřili, že by byla lepším arbitrem jejího použití než člověk.

Bývalý šéf Googlu přirovnal AI k jaderným zbraním

Problém umělé inteligence nespočívá v tom, že má potenciálně destruktivní sílu jaderné zbraně. Jde o to, že umělá inteligence je jen tak dobrá jako lidé, kteří ji vyvinuli, a že nese hodnoty svých tvůrců. Umělá inteligence trpí klasickým problémem „odpadky dovnitř, odpadky ven“: rasistické algoritmy vytvářejí rasistické roboty a veškerá umělá inteligence nese předsudky svých tvůrců.

Zdá se, že Demis Hassabis, generální ředitel společnosti DeepMind, která vycvičila AI, která poráží hráče Starcraft II, tomu rozumí lépe než Schmidt. V červencovém rozhovoru v podcastu Lexe Friedmana se Friedman zeptal Hassabise, jak lze ovládat tak výkonnou technologii, jako je umělá inteligence, a jak se může Hassabis sám vyhnout poškození touto silou.

Khasabisova odpověď se týká jeho samotného. "Umělá inteligence je příliš velký nápad," řekl. „Je důležité, kdo vytváří AI, z jakých kultur pochází a jaké jsou jejich hodnoty. Systémy umělé inteligence se budou učit samy... ale systém zůstane vtisknutý do kultury a hodnot autorů systému.“

Umělá inteligence je odrazem svého autora. Nemůže srovnat město se zemí výbuchem 1,2 megatuny. Pokud ho to člověk nenaučí.

Můžete pomoci Ukrajině v boji proti ruským vetřelcům. Nejlepším způsobem, jak toho dosáhnout, je darovat finanční prostředky ozbrojeným silám Ukrajiny prostřednictvím Zachraňte život nebo přes oficiální stránku NBÚ.

Přečtěte si také:

Dzherelosvěrák
Přihlásit se
Upozornit na
host

0 Komentáře
Vložené recenze
Zobrazit všechny komentáře
Další články
Přihlaste se k odběru aktualizací
Nyní populární