Ceturtdiena, 28. gada 2024. marts

darbvirsmas v4.2.1

Root NationНовиниIT laikrakstsBijušais Google vadītājs mākslīgo intelektu salīdzināja ar kodolieročiem

Bijušais Google vadītājs mākslīgo intelektu salīdzināja ar kodolieročiem

-

Bijušais Google izpilddirektors Ēriks Šmits mākslīgo intelektu (AI) salīdzināja ar kodolieročiem un aicināja izveidot atturēšanas režīmu, kas būtu līdzīgs savstarpējai garantētai iznīcināšanai, kas neļautu pasaules spēcīgākajām valstīm iznīcināt vienai otru.

Bijušais Google vadītājs mākslīgo intelektu salīdzināja ar kodolieročiem

Šmits runāja par mākslīgā intelekta briesmām Aspenas drošības forumā 22. jūlijā, diskusijā par nacionālo drošību un mākslīgo intelektu. Jautāts par morāles vērtību tehnoloģijās, Šmits paskaidroja, ka viņš pats bija naivs attiecībā uz informācijas spēku Google pirmsākumos. Pēc tam viņš aicināja tehnoloģiju, lai tās labāk atbilstu to cilvēku ētikai un morālei, kuriem tie kalpo, un izveidoja dīvainu salīdzinājumu starp mākslīgo intelektu un kodolieročiem.

Šmits runāja par tuvāko nākotni, kurā Ķīnai un ASV ir jānoslēdz līgums par mākslīgo intelektu. "50. un 60. gados mēs izveidojām pasauli, kurā kodolizmēģinājumiem bija noteikums "bez pārsteigumiem", un rezultātā tie tika aizliegti," sacīja Šmits. "Šis ir uzticības līdzsvara vai neuzticības trūkuma piemērs, tas ir noteikums "bez pārsteigumiem". Mani ļoti uztrauc tas, ka ASV uzskats par Ķīnu kā korumpētu vai komunistisku vai ko citu, un Ķīnas uzskats par Ameriku kā zaudētāju... ļaus cilvēkiem teikt: "Ak, Dievs, viņi kaut ko gatavojas", un tad sāksies kaut kas nesaprotams... .

AI un mašīnmācīšanās ir aizraujoša un bieži vien pārprasta tehnoloģija. Viņš būtībā nav tik gudrs, kā cilvēki domā. Tas var radīt šedevra līmeņa mākslas darbus, pārspēt cilvēkus spēlē Starcraft II un veikt elementārus tālruņa zvanus lietotājiem. Tomēr mēģinājumi likt tai veikt sarežģītākus uzdevumus, piemēram, vadīt automašīnu lielā pilsētā, nav vainagojušies panākumiem.

Šmits runā par iedomātu tuvāko nākotni, kurā gan Ķīnai, gan ASV būs bažas par drošības jautājumiem, kas liks tām noslēgt sava veida līgumu par mākslīgā intelekta ierobežošanu. Viņš atgādināja 1950. un 60. gadus, kad diplomātija izstrādāja virkni kontroles ap planētas nāvējošākajiem ieročiem. Taču vajadzēja desmit gadus ilgušu kodolsprādzienu un, pats galvenais, Hirosimas un Nagasaki iznīcināšanu, lai panāktu mieru pirms Kodolieroču izmēģinājumu aizlieguma līguma, SALT II un citu nozīmīgu tiesību aktu noslēgšanas.

Divas Japānas pilsētas, kuras Amerika iznīcināja Otrā pasaules kara beigās, paņēma desmitiem tūkstošu cilvēku dzīvības un pierādīja pasaulei kodolieroču mūžīgās šausmas. Tad Krievijas un Ķīnas valdības steidzās iegādāties ieročus. Veids, kā mēs dzīvojam ar iespēju, ka šie ieroči tiks izmantoti, ir tā sauktā Mutually Assured Destruction (MAD) — atturēšanas teorija, kas nodrošina, ka, ja viena valsts palaiž kodolieroci, iespējams, ka jebkura cita to darīs. Mēs neizmantojam postošākos ieročus uz planētas, jo pastāv iespēja, ka tas iznīcinās vismaz civilizāciju visā pasaulē.

Neraugoties uz Šmita krāsainajiem komentāriem, mēs nevēlamies vai nevajag MAD AI. Pirmkārt, mākslīgais intelekts vēl nav pierādījis savu iznīcinošo spēku salīdzinājumā ar kodolieročiem. Taču pie varas esošie cilvēki baidās no šīs jaunās tehnoloģijas un parasti nepareizu iemeslu dēļ. Cilvēki pat ir ierosinājuši nodot kontroli pār kodolieročiem mākslīgajam intelektam, uzskatot, ka tas būtu labāks šķīrējtiesnesis par to izmantošanu nekā cilvēks.

Bijušais Google vadītājs AI salīdzināja ar kodolieročiem

Problēma ar mākslīgo intelektu nav tā, ka tam piemīt kodolieroča potenciāli iznīcinošs spēks. Lieta ir tāda, ka mākslīgais intelekts ir tik labs, cik cilvēki, kas to izstrādājuši, un ka tas nes tā radītāju vērtības. AI cieš no klasiskās problēmas "atkritumi iekšā, atkritumi ārā": rasistiski algoritmi rada rasistiskus robotus, un viss AI ir saistīts ar tā veidotāju aizspriedumiem.

Demis Hassabis, uzņēmuma DeepMind izpilddirektors, kurš apmācīja AI, kas pārspēj Starcraft II spēlētājus, šķiet, to saprot labāk nekā Šmits. Jūlija intervijā Leksa Frīdmena aplādei Frīdmens jautāja Hassabisam, kā var kontrolēt tik spēcīgu tehnoloģiju kā AI un kā pats Hassabis var izvairīties no šīs varas sabojāšanas.

Khasabis atbilde ir par viņu pašu. "Mākslīgais intelekts ir pārāk liela ideja," viņš teica. "Ir svarīgi, kas rada AI, no kādām kultūrām viņi nāk un kādas ir viņu vērtības. AI sistēmas mācīsies pašas, taču sistēma paliks iespiesta ar sistēmas autoru kultūru un vērtībām.

Mākslīgais intelekts ir tā autora atspulgs. Tas nevar nolīdzināt pilsētu ar zemi ar 1,2 megatonu sprādzienu. Ja vien cilvēks viņam to nemāca.

Jūs varat palīdzēt Ukrainai cīnīties pret krievu iebrucējiem. Labākais veids, kā to izdarīt, ir ziedot līdzekļus Ukrainas bruņotajiem spēkiem Savelife vai izmantojot oficiālo lapu NBU.

Lasi arī:

Jerelonetikums
Pierakstīties
Paziņot par
viesis

0 komentāri
Iegultās atsauksmes
Skatīt visus komentārus
Citi raksti
Abonējiet atjauninājumus

Jaunākie komentāri

Tagad populārs
0
Mums patīk jūsu domas, lūdzu, komentējiet.x