Root NationBeritaberita TIMantan kepala Google membandingkan kecerdasan buatan dengan senjata nuklir

Mantan kepala Google membandingkan kecerdasan buatan dengan senjata nuklir

-

Mantan CEO Google Eric Schmidt membandingkan kecerdasan buatan (AI) dengan senjata nuklir dan menyerukan rezim pencegahan, mirip dengan penghancuran yang saling menguntungkan, yang membuat negara-negara paling kuat di dunia tidak saling menghancurkan.

Mantan kepala Google membandingkan kecerdasan buatan dengan senjata nuklir

Schmidt berbicara tentang bahaya kecerdasan buatan di Forum Keamanan Aspen pada 22 Juli selama diskusi tentang keamanan nasional dan AI. Ketika ditanya tentang nilai moralitas dalam teknologi, Schmidt menjelaskan bahwa dirinya sendiri naif tentang kekuatan informasi di masa-masa awal Google. Dia kemudian menyerukan agar teknologi lebih sesuai dengan etika dan moral orang-orang yang mereka layani, dan membuat perbandingan aneh antara kecerdasan buatan dan senjata nuklir.

Schmidt berbicara tentang waktu dekat, di mana China dan Amerika Serikat perlu menyimpulkan kesepakatan tentang kecerdasan buatan. "Pada tahun 50-an dan 60-an, kami akhirnya menciptakan dunia di mana tidak ada aturan 'tidak mengejutkan' untuk uji coba nuklir, dan sebagai hasilnya, mereka dilarang," kata Schmidt. "Ini adalah contoh keseimbangan kepercayaan atau kurangnya kepercayaan, ini adalah aturan 'tidak ada kejutan.' Saya sangat prihatin bahwa pandangan AS tentang China sebagai korup atau komunis atau apa pun, dan pandangan China tentang Amerika sebagai pecundang ... akan memungkinkan orang untuk berkata, "Ya Tuhan, mereka merencanakan sesuatu," dan kemudian sesuatu yang tidak dapat dipahami akan dimulai ... .

AI dan pembelajaran mesin adalah teknologi yang menarik dan sering disalahpahami. Dia pada dasarnya tidak secerdas yang orang pikirkan. Itu dapat membuat karya seni tingkat mahakarya, mengalahkan orang di Starcraft II, dan membuat panggilan telepon yang belum sempurna untuk pengguna. Namun, upaya untuk membuatnya melakukan tugas yang lebih sulit, seperti mengendarai mobil di kota besar, belum berhasil.

Schmidt berbicara tentang masa depan imajiner di mana baik China dan AS akan khawatir tentang masalah keamanan, yang akan memaksa mereka untuk masuk ke dalam semacam perjanjian untuk menahan AI. Dia mengingat tahun 1950-an dan 60-an, ketika diplomasi mengembangkan serangkaian kontrol di sekitar senjata paling mematikan di planet ini. Tapi butuh satu dekade ledakan nuklir dan, yang paling penting, penghancuran Hiroshima dan Nagasaki, untuk perdamaian datang sebelum kesimpulan dari Perjanjian Larangan Uji Nuklir, SALT II, ​​dan undang-undang penting lainnya.

Dua kota Jepang yang dihancurkan oleh Amerika pada akhir Perang Dunia II merenggut nyawa puluhan ribu orang dan membuktikan kepada dunia kengerian abadi senjata nuklir. Kemudian pemerintah Rusia dan Cina bergegas untuk memperoleh senjata. Cara kita hidup dengan kemungkinan senjata ini akan digunakan adalah apa yang dikenal sebagai Mutually Assured Destruction (MAD), sebuah teori pencegahan yang memastikan bahwa jika satu negara meluncurkan senjata nuklir, ada kemungkinan negara lain akan melakukannya. Kami tidak menggunakan senjata yang paling merusak di planet ini karena kemungkinan itu akan menghancurkan setidaknya peradaban di seluruh dunia.

Terlepas dari komentar penuh warna Schmidt, kami tidak menginginkan atau membutuhkan MAD untuk AI. Pertama, AI belum membuktikan kekuatan destruktifnya dibandingkan senjata nuklir. Tetapi orang-orang yang berkuasa takut akan teknologi baru ini, dan biasanya karena alasan yang salah. Orang-orang bahkan telah mengusulkan untuk menyerahkan kendali senjata nuklir kepada kecerdasan buatan, percaya bahwa itu akan menjadi penengah yang lebih baik dari penggunaannya daripada manusia.

Mantan kepala Google membandingkan AI dengan senjata nuklir

Masalah dengan kecerdasan buatan bukanlah bahwa ia memiliki kekuatan senjata nuklir yang berpotensi merusak. Intinya adalah kecerdasan buatan hanya sebaik orang yang mengembangkannya, dan membawa nilai-nilai penciptanya. AI menderita masalah klasik "sampah masuk, sampah keluar": algoritma rasis membuat robot rasis, dan semua AI membawa bias penciptanya.

Demis Hassabis, CEO DeepMind, perusahaan yang melatih AI yang mengalahkan pemain Starcraft II, tampaknya lebih memahami hal ini daripada Schmidt. Dalam wawancara bulan Juli di podcast Lex Friedman, Friedman bertanya kepada Hassabis bagaimana teknologi sekuat AI dapat dikendalikan, dan bagaimana Hassabis sendiri dapat menghindari kerusakan oleh kekuatan itu.

Jawaban Khasabis adalah tentang dirinya sendiri. "Kecerdasan buatan adalah ide yang terlalu besar," katanya. “Yang penting siapa yang menciptakan AI, dari budaya apa mereka berasal dan apa nilai-nilainya. Sistem AI akan belajar sendiri ... tetapi sistem akan tetap tercetak dengan budaya dan nilai-nilai pembuat sistem."

Kecerdasan buatan adalah cerminan dari pembuatnya. Itu tidak bisa meruntuhkan kota dengan ledakan 1,2 megaton. Kecuali seseorang mengajarinya ini.

Anda dapat membantu Ukraina melawan penjajah Rusia. Cara terbaik untuk melakukannya adalah dengan menyumbangkan dana ke Angkatan Bersenjata Ukraina melalui selamatkan hidup atau melalui halaman resmi NBU.

Baca juga:

Jerelowakil
Daftar
Beritahu tentang
tamu

0 komentar
Ulasan Tertanam
Lihat semua komentar