Root NationNieuwsIT-nieuwsHet voormalige hoofd van Google vergeleek kunstmatige intelligentie met kernwapens

Het voormalige hoofd van Google vergeleek kunstmatige intelligentie met kernwapens

-

Voormalig Google-CEO Eric Schmidt vergeleek kunstmatige intelligentie (AI) met kernwapens en riep op tot een afschrikkingsregime, vergelijkbaar met wederzijds verzekerde vernietiging, dat voorkomt dat de machtigste landen ter wereld elkaar vernietigen.

Het voormalige hoofd van Google vergeleek kunstmatige intelligentie met kernwapens

Schmidt sprak op 22 juli op het Aspen Security Forum over de gevaren van kunstmatige intelligentie tijdens een discussie over nationale veiligheid en AI. Toen hem werd gevraagd naar de waarde van moraliteit in technologie, legde Schmidt uit dat hij zelf naïef was over de kracht van informatie in de begintijd van Google. Vervolgens riep hij op tot technologie die beter zou aansluiten bij de ethiek en moraal van de mensen die ze dienen, en trok hij een vreemde vergelijking tussen kunstmatige intelligentie en kernwapens.

Schmidt sprak over de nabije toekomst, waarin China en de Verenigde Staten een akkoord moeten sluiten over kunstmatige intelligentie. "In de jaren '50 en '60 creëerden we uiteindelijk een wereld waar er een 'geen verrassingen'-regel was voor kernproeven, en als gevolg daarvan werden ze verboden," zei Schmidt. "Dit is een voorbeeld van de balans van vertrouwen of gebrek aan vertrouwen, dit is de regel van 'geen verrassingen'. Ik ben erg bezorgd dat de Amerikaanse kijk op China als corrupt of communistisch of wat dan ook, en China's kijk op Amerika als een verliezer... mensen in staat zal stellen te zeggen: "Oh mijn God, ze zijn iets van plan", en dan iets onbegrijpelijks zal beginnen... .

AI en machine learning is een fascinerende en vaak onbegrepen technologie. Hij is eigenlijk niet zo slim als mensen denken. Het kan kunstwerken op meesterwerkniveau maken, mensen verslaan bij Starcraft II en rudimentaire telefoontjes plegen voor gebruikers. Pogingen om hem moeilijkere taken te laten uitvoeren, zoals autorijden in een grote stad, zijn echter niet succesvol geweest.

Schmidt spreekt over een denkbeeldige nabije toekomst waarin zowel China als de VS zich zorgen zullen maken over veiligheidskwesties, waardoor ze een soort verdrag zullen sluiten om AI in te dammen. Hij herinnerde zich de jaren 1950 en 60, toen de diplomatie een reeks controles ontwikkelde rond de dodelijkste wapens ter wereld. Maar het duurde een decennium van nucleaire explosies en, belangrijker nog, de vernietiging van Hiroshima en Nagasaki, voordat er vrede kwam vóór de sluiting van het Nuclear Test Ban Treaty, SALT II en andere baanbrekende wetgeving.

Twee Japanse steden die aan het einde van de Tweede Wereldoorlog door Amerika werden verwoest, hebben het leven gekost aan tienduizenden mensen en hebben de wereld de eeuwige gruwel van kernwapens bewezen. Toen haastten de regeringen van Rusland en China zich om wapens te verwerven. De manier waarop we leven met de mogelijkheid dat deze wapens zullen worden gebruikt, is wat bekend staat als Mutually Assured Destruction (MAD), een theorie van afschrikking die ervoor zorgt dat als een land een kernwapen lanceert, het mogelijk is dat een ander land dat doet. We gebruiken niet de meest destructieve wapens op de planeet vanwege de mogelijkheid dat het op zijn minst de beschaving over de hele wereld zal vernietigen.

Ondanks de kleurrijke opmerkingen van Schmidt, willen of hebben we MAD niet nodig voor AI. Ten eerste heeft AI zijn vernietigende kracht nog niet bewezen in vergelijking met kernwapens. Maar de machthebbers zijn bang voor deze nieuwe technologie, en meestal om de verkeerde redenen. Mensen hebben zelfs voorgesteld om de controle over kernwapens over te dragen aan een kunstmatige intelligentie, in de overtuiging dat het een betere scheidsrechter zou zijn bij het gebruik ervan dan een mens.

Het voormalige hoofd van Google vergeleek AI met kernwapens

Het probleem met kunstmatige intelligentie is niet dat het de potentieel vernietigende kracht van een kernwapen heeft. Het punt is dat kunstmatige intelligentie slechts zo goed is als de mensen die het hebben ontwikkeld, en dat het de waarden van zijn makers draagt. AI lijdt aan het klassieke "garbage in, garbage out"-probleem: racistische algoritmen creëren racistische robots en alle AI draagt ​​de vooroordelen van zijn makers.

Demis Hassabis, CEO van DeepMind, het bedrijf dat de AI trainde die Starcraft II-spelers verslaat, lijkt dit beter te begrijpen dan Schmidt. In een interview in juli op de podcast van Lex Friedman vroeg Friedman Hassabis hoe een technologie zo krachtig als AI kan worden bestuurd en hoe Hassabis zelf kan voorkomen dat hij door die macht wordt gecorrumpeerd.

Het antwoord van Khasabis gaat over hemzelf. "Kunstmatige intelligentie is een te groot idee", zei hij. "Het is belangrijk wie AI maakt, uit welke culturen ze komen en wat hun waarden zijn. AI-systemen leren vanzelf... maar het systeem blijft ingeprent met de cultuur en waarden van de auteurs van het systeem."

Kunstmatige intelligentie is een weerspiegeling van de auteur. Het kan geen stad met de grond gelijk maken met een explosie van 1,2 megaton. Tenzij iemand hem dit leert.

U kunt Oekraïne helpen vechten tegen de Russische indringers. De beste manier om dit te doen is door geld te doneren aan de strijdkrachten van Oekraïne via Red het leven of via de officiële pagina NBU.

Lees ook:

bronvice
Aanmelden
Informeer over
gast

0 Heb je vragen? Stel ze hier.
Ingesloten beoordelingen
Bekijk alle reacties