Root NationNachrichtenIT-NeuigkeitenDer ehemalige Google-Chef verglich künstliche Intelligenz mit Atomwaffen

Der ehemalige Google-Chef verglich künstliche Intelligenz mit Atomwaffen

-

Der frühere Google-CEO Eric Schmidt verglich künstliche Intelligenz (KI) mit Atomwaffen und forderte ein Abschreckungsregime, ähnlich der gegenseitig zugesicherten Zerstörung, das die mächtigsten Nationen der Welt davon abhält, sich gegenseitig zu zerstören.

Der ehemalige Google-Chef verglich künstliche Intelligenz mit Atomwaffen

Schmidt sprach am 22. Juli auf dem Aspen Security Forum bei einer Diskussion über nationale Sicherheit und KI über die Gefahren künstlicher Intelligenz. Auf die Frage nach dem Wert der Moral in der Technik erklärte Schmidt, dass er selbst in den Anfängen von Google naiv gegenüber der Macht der Information gewesen sei. Dann forderte er eine Technologie, die der Ethik und Moral der Menschen, denen sie dienen, besser entsprechen sollte, und zog einen seltsamen Vergleich zwischen künstlicher Intelligenz und Atomwaffen.

Schmidt sprach über die nahe Zukunft, in der China und die USA ein Abkommen über künstliche Intelligenz abschließen müssen. „In den 50er und 60er Jahren haben wir schließlich eine Welt geschaffen, in der es eine „Keine Überraschungen“-Regel für Atomtests gab, und als Folge davon wurden sie verboten“, sagte Schmidt. „Dies ist ein Beispiel für das Gleichgewicht zwischen Vertrauen oder Mangel an Vertrauen, dies ist die Regel ‚keine Überraschungen‘. Ich bin sehr besorgt, dass die US-Ansicht Chinas als korrupt oder kommunistisch oder was auch immer und Chinas Ansicht Amerikas als Verlierer ... den Menschen erlauben wird zu sagen: "Oh mein Gott, sie haben etwas vor", und dann etwas Unverständliches wird beginnen ... .

KI und maschinelles Lernen sind faszinierende und oft missverstandene Technologien. Er ist im Grunde nicht so schlau, wie die Leute denken. Es kann Kunstwerke auf Meisterniveau erstellen, Leute bei Starcraft II schlagen und rudimentäre Telefonanrufe für Benutzer tätigen. Versuche, ihn schwierigere Aufgaben wie das Autofahren in einer Großstadt ausführen zu lassen, waren jedoch nicht erfolgreich.

Schmidt spricht von einer imaginären nahen Zukunft, in der sich sowohl China als auch die USA um Sicherheitsfragen sorgen werden, die sie zwingen werden, eine Art Vertrag zur Eindämmung von KI abzuschließen. Er erinnerte an die 1950er und 60er Jahre, als die Diplomatie eine Reihe von Kontrollen rund um die tödlichsten Waffen der Welt entwickelte. Aber es dauerte ein Jahrzehnt voller nuklearer Explosionen und vor allem der Zerstörung von Hiroshima und Nagasaki, bis der Frieden vor dem Abschluss des Vertrags über das Verbot von Nuklearversuchen, SALT II und anderen wegweisenden Gesetzen zustande kam.

Zwei japanische Städte, die am Ende des Zweiten Weltkriegs von Amerika zerstört wurden, kosteten Zehntausenden Menschen das Leben und bewiesen der Welt den ewigen Schrecken von Atomwaffen. Dann beeilten sich die Regierungen von Russland und China, Waffen zu erwerben. Die Art und Weise, wie wir mit der Möglichkeit leben, dass diese Waffen eingesetzt werden, ist die sogenannte Mutually Assured Destruction (MAD), eine Theorie der Abschreckung, die sicherstellt, dass, wenn ein Land eine Atomwaffe abfeuert, es möglich ist, dass ein anderes Land dies tut. Wir verwenden nicht die zerstörerischsten Waffen auf dem Planeten, weil die Möglichkeit besteht, dass sie zumindest die Zivilisation auf der ganzen Welt zerstören werden.

Trotz Schmidts farbenfrohen Kommentaren wollen oder brauchen wir MAD für KI nicht. Erstens hat die KI ihre Zerstörungskraft im Vergleich zu Atomwaffen noch nicht bewiesen. Aber die Machthaber fürchten diese neue Technologie, und das meist aus den falschen Gründen. Die Leute haben sogar vorgeschlagen, die Kontrolle über Atomwaffen an eine künstliche Intelligenz zu übergeben, weil sie glauben, dass sie ein besserer Schiedsrichter über ihren Einsatz wäre als ein Mensch.

Der ehemalige Google-Chef verglich KI mit Atomwaffen

Das Problem mit künstlicher Intelligenz ist nicht, dass sie die potenziell zerstörerische Kraft einer Atomwaffe hat. Der Punkt ist, dass künstliche Intelligenz nur so gut ist wie die Menschen, die sie entwickelt haben, und dass sie die Werte ihrer Schöpfer trägt. KI leidet unter dem klassischen „Garbage in, Garbage out“-Problem: Rassistische Algorithmen erschaffen rassistische Roboter, und jede KI trägt die Vorurteile ihrer Schöpfer.

Demis Hassabis, CEO von DeepMind, dem Unternehmen, das die KI trainiert hat, die Starcraft II-Spieler schlägt, scheint dies besser zu verstehen als Schmidt. In einem Juli-Interview in Lex Friedmans Podcast fragte Friedman Hassabis, wie eine so mächtige Technologie wie KI kontrolliert werden kann und wie Hassabis selbst vermeiden kann, von dieser Macht korrumpiert zu werden.

Die Antwort von Khasabis betrifft ihn selbst. „Künstliche Intelligenz ist eine zu große Idee“, sagte er. „Es ist wichtig, wer KI erschafft, aus welchen Kulturen sie kommen und was ihre Werte sind. KI-Systeme werden von selbst lernen … aber das System wird von der Kultur und den Werten der Autoren des Systems geprägt bleiben.“

Künstliche Intelligenz ist ein Spiegelbild ihres Autors. Es kann keine Stadt mit einer 1,2-Megatonnen-Explosion dem Erdboden gleichmachen. Es sei denn, jemand bringt ihm das bei.

Sie können der Ukraine helfen, gegen die russischen Invasoren zu kämpfen. Der beste Weg, dies zu tun, besteht darin, Gelder an die Streitkräfte der Ukraine zu spenden Das Leben retten oder über die offizielle Seite NBU.

Lesen Sie auch:

Anmelden
Benachrichtigen Sie über
Gast

0 Ihre Nachricht
Eingebettete Bewertungen
Alle Kommentare anzeigen