Root NationNyhederIT nyhederDen tidligere chef for Google sammenlignede kunstig intelligens med atomvåben

Den tidligere chef for Google sammenlignede kunstig intelligens med atomvåben

-

Tidligere Google-topchef Eric Schmidt sammenlignede kunstig intelligens (AI) med atomvåben og opfordrede til et afskrækkelsesregime, der ligner gensidigt sikret ødelæggelse, der forhindrer verdens mest magtfulde nationer i at ødelægge hinanden.

Den tidligere chef for Google sammenlignede kunstig intelligens med atomvåben

Schmidt talte om farerne ved kunstig intelligens på Aspen Security Forum den 22. juli under en diskussion om national sikkerhed og AI. Da han blev spurgt om værdien af ​​moral i teknologi, forklarede Schmidt, at han selv var naiv med hensyn til informationens magt i Googles tidlige dage. Han opfordrede derefter til, at teknologien bedre matcher etikken og moralen hos de mennesker, de tjener, og lavede en mærkelig sammenligning mellem kunstig intelligens og atomvåben.

Schmidt talte om den nærmeste fremtid, hvor Kina og USA skal indgå en aftale om kunstig intelligens. "I 50'erne og 60'erne endte vi med at skabe en verden, hvor der var en 'ingen overraskelser'-regel for atomprøvesprængninger, og som et resultat blev de forbudt," sagde Schmidt. "Dette er et eksempel på balancen mellem tillid eller mangel på tillid, dette er reglen om 'ingen overraskelser'." Jeg er meget bekymret over, at USA's syn på Kina som korrupt eller kommunistisk eller hvad som helst, og Kinas syn på Amerika som en taber... vil tillade folk at sige: "Åh min Gud, de er i gang med noget," og så noget uforståeligt vil begynde... .

AI og machine learning er en fascinerende og ofte misforstået teknologi. Han er dybest set ikke så klog, som folk tror. Det kan skabe kunst på mesterværksniveau, slå folk på Starcraft II og foretage rudimentære telefonopkald til brugere. Forsøg på at få den til at udføre vanskeligere opgaver, såsom at køre bil i en stor by, har dog ikke været succesfulde.

Schmidt taler om en imaginær nær fremtid, hvor både Kina og USA vil være bekymrede over sikkerhedsspørgsmål, hvilket vil tvinge dem til at indgå en slags traktat om at indeholde AI. Han mindede om 1950'erne og 60'erne, hvor diplomatiet udviklede en række kontroller omkring de mest dødbringende våben på planeten. Men det tog et årti med atomeksplosioner og, vigtigst af alt, ødelæggelsen af ​​Hiroshima og Nagasaki, før freden kom før indgåelsen af ​​traktaten om forbud mod atomprøvesprængninger, SALT II og anden skelsættende lovgivning.

To japanske byer ødelagt af Amerika i slutningen af ​​Anden Verdenskrig tog livet af titusindvis af mennesker og beviste for verden den evige rædsel ved atomvåben. Så skyndte regeringerne i Rusland og Kina at erhverve våben. Den måde, vi lever med muligheden for, at disse våben vil blive brugt på, er det, der er kendt som Mutually Assured Destruction (MAD), en teori om afskrækkelse, der sikrer, at hvis et land affyrer et atomvåben, er det muligt, at ethvert andet land vil. Vi bruger ikke de mest destruktive våben på planeten på grund af muligheden for, at det vil ødelægge i det mindste civilisationen rundt om i verden.

På trods af Schmidts farverige kommentarer, ønsker eller har vi ikke brug for MAD til AI. For det første har AI endnu ikke bevist sin destruktive kraft sammenlignet med atomvåben. Men magthaverne frygter denne nye teknologi, og normalt af de forkerte årsager. Folk har endda foreslået at overdrage kontrollen med atomvåben til en kunstig intelligens, idet de troede, at det ville være en bedre dommer over dets brug end et menneske.

Den tidligere chef for Google sammenlignede AI med atomvåben

Problemet med kunstig intelligens er ikke, at den har den potentielt ødelæggende kraft som et atomvåben. Pointen er, at kunstig intelligens kun er så god som de mennesker, der udviklede den, og at den bærer værdierne fra dens skabere. AI lider af det klassiske "garbage in, garbage out"-problem: racistiske algoritmer skaber racistiske robotter, og al AI bærer fordomme fra sine skabere.

Demis Hassabis, administrerende direktør for DeepMind, virksomheden, der trænede den AI, der slår Starcraft II-spillere, ser ud til at forstå dette bedre end Schmidt. I et juli-interview på Lex Friedmans podcast spurgte Friedman Hassabis, hvordan en teknologi så stærk som AI kan kontrolleres, og hvordan Hassabis selv kan undgå at blive korrumperet af den magt.

Khasabis' svar handler om ham selv. "Kunstig intelligens er for stor en idé," sagde han. "Det er vigtigt, hvem der skaber AI, hvilke kulturer de kommer fra, og hvad deres værdier er. AI-systemer vil lære af sig selv... men systemet vil forblive præget af kulturen og værdierne hos systemets forfattere."

Kunstig intelligens er en afspejling af dens forfatter. Det kan ikke jævne en by med jorden med en eksplosion på 1,2 megaton. Medmindre en person lærer ham dette.

Du kan hjælpe Ukraine med at kæmpe mod de russiske angribere. Den bedste måde at gøre dette på er at donere midler til Ukraines væbnede styrker gennem Red livet eller via den officielle side NBU.

Læs også:

Dzherelovice
Tilmelde
Giv besked om
gæst

0 Kommentarer
Indlejrede anmeldelser
Se alle kommentarer
Andre artikler
Abonner for opdateringer
Populær nu