Jeudi 28 mars 2024

bureau v4.2.1

Root NationНовиниActualités informatiquesL'ancien patron de Google a comparé l'intelligence artificielle aux armes nucléaires

L'ancien patron de Google a comparé l'intelligence artificielle aux armes nucléaires

-

L'ancien PDG de Google, Eric Schmidt, a comparé l'intelligence artificielle (IA) aux armes nucléaires et a appelé à un régime de dissuasion, similaire à la destruction mutuelle assurée, qui empêche les nations les plus puissantes du monde de s'entre-détruire.

L'ancien patron de Google a comparé l'intelligence artificielle aux armes nucléaires

Schmidt a parlé des dangers de l'intelligence artificielle lors du Forum sur la sécurité d'Aspen le 22 juillet lors d'une discussion sur la sécurité nationale et l'IA. Interrogé sur la valeur de la moralité dans la technologie, Schmidt a expliqué qu'il était lui-même naïf quant au pouvoir de l'information aux débuts de Google. Il a ensuite appelé à ce que la technologie corresponde mieux à l'éthique et à la morale des personnes qu'ils servent, et a établi une étrange comparaison entre l'intelligence artificielle et les armes nucléaires.

Schmidt a parlé d'un avenir proche, dans lequel la Chine et les États-Unis doivent conclure un accord sur l'intelligence artificielle. "Dans les années 50 et 60, nous avons fini par créer un monde où il y avait une règle" sans surprise "pour les essais nucléaires, et en conséquence, ils ont été interdits", a déclaré Schmidt. "C'est un exemple de l'équilibre de la confiance ou du manque de confiance, c'est la règle du" pas de surprises ". Je suis très préoccupé par le fait que la vision américaine de la Chine comme corrompue ou communiste ou autre, et la vision chinoise de l'Amérique comme perdante... permettront aux gens de dire : "Oh mon Dieu, ils préparent quelque chose", et puis quelque chose d'incompréhensible va commencer... .

L'IA et l'apprentissage automatique sont une technologie fascinante et souvent mal comprise. Il n'est fondamentalement pas aussi intelligent que les gens le pensent. Il peut créer des œuvres d'art de niveau chef-d'œuvre, battre les gens de Starcraft II et passer des appels téléphoniques rudimentaires pour les utilisateurs. Cependant, les tentatives pour lui faire effectuer des tâches plus difficiles, comme conduire une voiture dans une grande ville, n'ont pas abouti.

Schmidt parle d'un futur proche imaginaire dans lequel la Chine et les États-Unis seront préoccupés par les problèmes de sécurité, ce qui les obligera à conclure une sorte de traité pour contenir l'IA. Il a rappelé les années 1950 et 60, lorsque la diplomatie a développé une série de contrôles autour des armes les plus meurtrières de la planète. Mais il a fallu une décennie d'explosions nucléaires et, surtout, la destruction d'Hiroshima et de Nagasaki, pour que la paix vienne avant la conclusion du Traité d'interdiction des essais nucléaires, SALT II, ​​​​et d'autres lois historiques.

Deux villes japonaises détruites par l'Amérique à la fin de la Seconde Guerre mondiale ont coûté la vie à des dizaines de milliers de personnes et ont prouvé au monde l'éternelle horreur des armes nucléaires. Ensuite, les gouvernements de la Russie et de la Chine se sont précipités pour acquérir des armes. La façon dont nous vivons avec la possibilité que ces armes soient utilisées est ce que l'on appelle la destruction mutuelle assurée (MAD), une théorie de la dissuasion qui garantit que si un pays lance une arme nucléaire, il est possible que n'importe quel autre pays le fasse. Nous n'utilisons pas les armes les plus destructrices de la planète en raison de la possibilité qu'elles détruisent au moins la civilisation dans le monde.

Malgré les commentaires colorés de Schmidt, nous ne voulons ni n'avons besoin de MAD pour l'IA. Premièrement, l'IA n'a pas encore prouvé son pouvoir destructeur par rapport aux armes nucléaires. Mais les gens au pouvoir craignent cette nouvelle technologie, et généralement pour de mauvaises raisons. Certains ont même proposé de confier le contrôle des armes nucléaires à une intelligence artificielle, estimant qu'elle serait un meilleur arbitre de son utilisation qu'un humain.

L'ancien patron de Google a comparé l'IA aux armes nucléaires

Le problème avec l'intelligence artificielle n'est pas qu'elle a le pouvoir potentiellement destructeur d'une arme nucléaire. Le fait est que l'intelligence artificielle ne vaut que par les personnes qui l'ont développée et qu'elle porte les valeurs de ses créateurs. L'IA souffre du problème classique du "garbage in, garbage out" : les algorithmes racistes créent des robots racistes, et toute IA porte les préjugés de ses créateurs.

Demis Hassabis, PDG de DeepMind, la société qui a formé l'IA qui bat les joueurs de Starcraft II, semble mieux comprendre cela que Schmidt. Dans une interview de juillet sur le podcast de Lex Friedman, Friedman a demandé à Hassabis comment une technologie aussi puissante que l'IA peut être contrôlée, et comment Hassabis lui-même peut éviter d'être corrompu par ce pouvoir.

La réponse de Khasabis concerne lui-même. "L'intelligence artificielle est une trop grande idée", a-t-il déclaré. "Il est important de savoir qui crée l'IA, de quelles cultures il vient et quelles sont ses valeurs. Les systèmes d'IA apprendront par eux-mêmes... mais le système restera empreint de la culture et des valeurs des auteurs du système."

L'intelligence artificielle est à l'image de son auteur. Il ne peut pas raser une ville avec une explosion de 1,2 mégatonne. À moins qu'une personne ne lui apprenne cela.

Vous pouvez aider l'Ukraine à lutter contre les envahisseurs russes. La meilleure façon de le faire est de faire don de fonds aux forces armées ukrainiennes par le biais de Sauver la vie ou via la page officielle NBU.

Lisez aussi:

sourcevice
S'inscrire
Avertir de
invité

0 Commentaires
Avis intégrés
Voir tous les commentaires
Autres articles
Abonnez-vous pour les mises à jour

Commentaires récents

Populaire maintenant
0
Nous aimons vos pensées, veuillez commenter.x