Root Nation소식IT 뉴스구글 전 사장은 인공지능을 핵무기에 비유했다.

구글 전 사장은 인공지능을 핵무기에 비유했다.

-

에릭 슈미트 전 구글 최고경영자(CEO)는 인공지능(AI)을 핵무기에 비유하며 세계 최강국들이 서로를 파괴하지 못하도록 하는 상호확증파괴 억제체제를 요구했다.

구글 전 사장은 인공지능을 핵무기에 비유했다.

Schmidt는 22월 일 Aspen Security Forum에서 국가 안보와 AI에 대한 토론에서 인공 지능의 위험성에 대해 말했습니다. 기술의 도덕성의 가치에 대해 묻자 슈미트는 구글 초창기 정보의 힘에 대해 자신이 순진했다고 설명했다. 그런 다음 그는 그들이 섬기는 사람들의 윤리와 도덕에 더 잘 부합하는 기술을 요구하고 인공 지능과 핵무기를 이상한 비교를 그렸습니다.

슈미트는 가까운 미래에 중국과 미국이 인공 지능에 관한 협정을 체결해야 한다고 말했습니다. 슈미트는 "50년대와 60년대에 우리는 핵 실험에 대한 '놀라움이 없다'는 규칙이 있는 세상을 만들었고 결과적으로 핵 실험이 금지되었습니다"라고 말했습니다. "이것은 신뢰의 균형 또는 신뢰 부족의 예이며 '놀라움이 없음'의 규칙입니다. 나는 중국을 부패하거나 공산주의자로 보는 미국의 관점과 미국을 패배자로 보는 중국의 관점이... 사람들이 "맙소사, 그들이 뭔가를 하고 있다"고 말하게 하는 것이 매우 우려됩니다. 이해할 수 없는 일이 시작될 것이다. . . .

AI와 머신 러닝은 흥미롭고 종종 오해받는 기술입니다. 그는 기본적으로 사람들이 생각하는 것만큼 똑똑하지 않습니다. 걸작 수준의 작품을 만들고, 스타크래프트 II에서 사람들을 이길 수 있으며, 사용자에게 기본적인 전화를 걸 수 있습니다. 그러나 대도시에서 자동차를 운전하는 것과 같은 더 어려운 작업을 수행하도록 하려는 시도는 성공하지 못했습니다.

Schmidt는 중국과 미국 모두가 AI를 포함하는 일종의 조약을 체결하게 될 보안 문제에 대해 우려하게 될 상상의 가까운 미래에 대해 이야기합니다. 그는 외교가 지구상에서 가장 치명적인 무기에 대한 일련의 통제를 개발했던 1950년대와 60년대를 회상했습니다. 그러나 핵실험 금지 조약, SALT II 및 기타 획기적인 법안이 체결되기 전에 평화가 오기까지는 년 간의 핵폭발과 가장 중요한 히로시마와 나가사키의 파괴가 필요했습니다.

제차 세계 대전이 끝날 때 미국에 의해 파괴된 두 일본 도시는 수만 명의 목숨을 앗아갔고 핵무기의 영원한 공포를 세계에 증명했습니다. 그런 다음 러시아와 중국 정부는 무기를 얻기 위해 서둘렀습니다. 우리가 이러한 무기가 사용될 가능성을 안고 살아가는 방식은 MAD(상호확증파괴)로 알려진 것으로, 한 국가가 핵무기를 발사하면 다른 국가도 그럴 가능성이 있다는 억지 이론입니다. 우리는 지구상에서 가장 파괴적인 무기를 사용하지 않습니다. 왜냐하면 그것이 적어도 전 세계의 문명을 파괴할 가능성이 있기 때문입니다.

Schmidt의 다채로운 논평에도 불구하고 우리는 AI를 위한 MAD를 원하지도 필요하지도 않습니다. 첫째, AI는 아직 핵무기에 비해 파괴력이 입증되지 않았다. 그러나 권력을 쥔 사람들은 이 새로운 기술을 두려워하는데, 대개는 잘못된 이유 때문입니다. 사람들은 핵무기 통제권을 인공 지능에게 넘기는 것이 인간보다 더 나은 중재자가 될 것이라고 믿기까지 제안했습니다.

AI를 핵무기에 비유한 전 구글 사장

인공 지능의 문제는 잠재적으로 핵무기의 파괴력을 가지고 있다는 것이 아닙니다. 요점은 인공지능은 그것을 개발한 사람만큼만 뛰어나고, 그것을 만든 사람의 가치를 담고 있다는 것입니다. AI는 고전적인 "가비지 인, 가비지 아웃" 문제를 겪고 있습니다. 인종차별 알고리즘은 인종차별 로봇을 만들고 모든 AI는 제작자의 편견을 가집니다.

스타크래프트 II 플레이어를 능가하는 AI를 훈련시킨 딥마인드의 데미스 하사비스(Demis Hassabis) CEO는 이를 슈미트보다 더 잘 이해하고 있는 것 같다. 월 Lex Friedman의 팟캐스트 인터뷰에서 Friedman은 Hassabis에게 AI만큼 강력한 기술을 제어할 수 있는 방법과 Hassabis 자신이 그 힘에 의해 손상되는 것을 피할 수 있는 방법에 대해 질문했습니다.

Khasabis의 대답은 자신에 관한 것입니다. 그는 “인공지능은 너무 큰 생각이다. "AI를 만드는 사람, AI가 어떤 문화에서 왔는지, 가치가 무엇인지가 중요합니다. AI 시스템은 스스로 학습하지만... 시스템은 시스템 작성자의 문화와 가치로 각인된 상태로 남을 것입니다."

인공 지능은 저자의 반영입니다. 1,2메가톤의 폭발로 도시를 완전히 파괴할 수 없습니다. 사람이 그에게 이것을 가르치지 않는 한.

당신은 우크라이나가 러시아 침략자에 맞서 싸울 수 있도록 도울 수 있습니다. 이를 수행하는 가장 좋은 방법은 다음을 통해 우크라이나 군대에 기금을 기부하는 것입니다. 세이브라이프 또는 공식 페이지를 통해 NBU.

또한 읽기:

근원바이스
가입하기
에 대해 알림
손님

0 코멘트
임베디드 리뷰
모든 댓글 보기