ხუთშაბათი, 28 მარტი, 2024 წ

დესკტოპის v4.2.1

Root NationНовиниIT სიახლეებიGoogle-ის ყოფილმა ხელმძღვანელმა ხელოვნური ინტელექტი ბირთვულ იარაღს შეადარა

Google-ის ყოფილმა ხელმძღვანელმა ხელოვნური ინტელექტი ბირთვულ იარაღს შეადარა

-

Google-ის ყოფილმა აღმასრულებელმა დირექტორმა ერიკ შმიდტმა ხელოვნური ინტელექტი (AI) შეადარა ბირთვულ იარაღს და მოუწოდა შეკავების რეჟიმის დაწესებას, როგორც ორმხრივი გარანტირებული განადგურების მსგავსი, რომელიც ხელს უშლის მსოფლიოს ყველაზე ძლიერ ქვეყნებს ერთმანეთის განადგურებისგან.

Google-ის ყოფილმა ხელმძღვანელმა ხელოვნური ინტელექტი ბირთვულ იარაღს შეადარა

შმიდტმა ისაუბრა ხელოვნური ინტელექტის საფრთხეებზე ასპენის უსაფრთხოების ფორუმზე 22 ივლისს ეროვნული უსაფრთხოებისა და ხელოვნური ინტელექტის შესახებ დისკუსიის დროს. როდესაც ჰკითხეს მორალის მნიშვნელობას ტექნოლოგიაში, შმიდტმა განმარტა, რომ ის თავად იყო გულუბრყვილო ინფორმაციის ძალასთან დაკავშირებით Google-ის პირველ დღეებში. შემდეგ მან მოუწოდა ტექნოლოგიებს უკეთესად შეესაბამებოდეს იმ ადამიანების ეთიკასა და მორალს, რომლებსაც ემსახურებიან და უცნაური შედარება მოახდინა ხელოვნურ ინტელექტსა და ბირთვულ იარაღს შორის.

შმიდტმა ისაუბრა უახლოეს მომავალზე, რომელშიც ჩინეთმა და შეერთებულმა შტატებმა ხელოვნური ინტელექტის შესახებ შეთანხმების გაფორმება უნდა. „50-იან და 60-იან წლებში ჩვენ შევქმენით სამყარო, სადაც არსებობდა „არავითარი სიურპრიზის“ წესი ბირთვული ტესტირებისთვის და შედეგად, ისინი აიკრძალა“, - თქვა შმიდტმა. „ეს არის ნდობის ბალანსის ან ნდობის ნაკლებობის მაგალითი, ეს არის „არავითარი მოულოდნელობის“ წესი. მე ძალიან მაწუხებს, რომ აშშ-ს ჩინეთს, როგორც კორუმპირებულს, კომუნისტურს ან სხვას, და ჩინეთის ხედვას ამერიკაზე, როგორც დამარცხებულზე... საშუალებას მისცემს ხალხს თქვას: "ღმერთო ჩემო, ისინი რაღაცას აპირებენ" და შემდეგ რაღაც გაუგებარი დაიწყება... .

AI და მანქანათმცოდნეობა მომხიბლავი და ხშირად გაუგებარი ტექნოლოგიაა. ის ძირითადად არ არის ისეთი ჭკვიანი, როგორც ხალხს ჰგონია. მას შეუძლია შექმნას შედევრის დონის ნამუშევრები, დაამარცხოს ხალხი Starcraft II-ში და განახორციელოს ელემენტარული სატელეფონო ზარები მომხმარებლებისთვის. თუმცა, მცდელობა, რათა ის შეასრულოს უფრო რთული ამოცანები, როგორიცაა მანქანის მართვა დიდ ქალაქში, წარმატებული არ ყოფილა.

შმიდტი საუბრობს წარმოსახვით უახლოეს მომავალზე, რომელშიც ჩინეთიც და აშშ-იც შეშფოთებულნი იქნებიან უსაფრთხოების საკითხებით, რაც აიძულებს მათ დადონ ერთგვარი ხელშეკრულება ხელოვნური ინტელექტის შეკავების შესახებ. მან გაიხსენა 1950 და 60-იანი წლები, როდესაც დიპლომატიამ შეიმუშავა კონტროლის სერია პლანეტის ყველაზე მომაკვდინებელი იარაღის გარშემო. მაგრამ ბირთვული აფეთქებების ათწლეული და, რაც მთავარია, ჰიროშიმასა და ნაგასაკის განადგურება დასჭირდა, რათა მშვიდობა დამყარებულიყო ბირთვული გამოცდის აკრძალვის ხელშეკრულების, SALT II-ის და სხვა საეტაპო კანონმდებლობის დადებამდე.

მეორე მსოფლიო ომის ბოლოს ამერიკის მიერ განადგურებულმა ორმა იაპონურმა ქალაქმა ათიათასობით ადამიანის სიცოცხლე შეიწირა და მსოფლიოს დაუმტკიცა ბირთვული იარაღის მარადიული საშინელება. შემდეგ რუსეთისა და ჩინეთის მთავრობები იჩქარეს იარაღის შესაძენად. ჩვენ ვცხოვრობთ ამ იარაღის გამოყენების შესაძლებლობით არის ის, რაც ცნობილია როგორც ურთიერთდარწმუნებული განადგურება (MAD), შეკავების თეორია, რომელიც უზრუნველყოფს, რომ თუ ერთი ქვეყანა გამოიყენებს ბირთვულ იარაღს, შესაძლებელია ნებისმიერ სხვა ქვეყანას. ჩვენ არ ვიყენებთ ყველაზე დამანგრეველ იარაღს პლანეტაზე იმის გამო, რომ ის გაანადგურებს მინიმუმ ცივილიზაციას მთელ მსოფლიოში.

შმიდტის ფერადი კომენტარების მიუხედავად, ჩვენ არ გვინდა ან გვჭირდება MAD AI-სთვის. ჯერ ერთი, AI-ს ჯერ არ დაუმტკიცებია თავისი დესტრუქციული ძალა ბირთვულ იარაღთან შედარებით. მაგრამ ხელისუფლებაში მყოფ ადამიანებს ეშინიათ ამ ახალი ტექნოლოგიის და, როგორც წესი, არასწორი მიზეზების გამო. ხალხმა შესთავაზა ბირთვული იარაღის კონტროლის ხელოვნური ინტელექტის გადაცემა, რადგან თვლიდნენ, რომ ეს იქნებოდა მისი გამოყენების უკეთესი არბიტრი, ვიდრე ადამიანი.

Google-ის ყოფილმა ხელმძღვანელმა ხელოვნური ინტელექტი ბირთვულ იარაღს შეადარა

ხელოვნური ინტელექტის პრობლემა არ არის ის, რომ მას აქვს ბირთვული იარაღის პოტენციურად დამანგრეველი ძალა. საქმე იმაშია, რომ ხელოვნური ინტელექტი ისეთივე კარგია, როგორც ადამიანები, რომლებმაც ის განავითარეს და ის ატარებს მისი შემქმნელების ღირებულებებს. ხელოვნური ინტელექტი განიცდის კლასიკურ პრობლემას „ნაგვის შეტანა, ნაგვის გატანა“: რასისტული ალგორითმები ქმნიან რასისტ რობოტებს და ყველა AI ატარებს მისი შემქმნელების მიკერძოებას.

Demis Hassabis, DeepMind-ის აღმასრულებელი დირექტორი, კომპანია, რომელიც ავარჯიშებდა AI-ს, რომელიც ამარცხებს Starcraft II-ის მოთამაშეებს, როგორც ჩანს, ეს უკეთ ესმის, ვიდრე შმიდტი. ივლისის ინტერვიუში ლექს ფრიდმანის პოდკასტზე, ფრიდმანმა ჰკითხა ჰასაბისს, როგორ შეიძლება აკონტროლოს ისეთივე ძლიერი ტექნოლოგია, როგორიც ხელოვნური ინტელექტია და როგორ შეუძლია თავად ჰასაბისმა თავი აარიდოს ამ ძალით დაზიანებას.

ხასაბისის პასუხი საკუთარ თავზეა. "ხელოვნური ინტელექტი ძალიან დიდი იდეაა", - თქვა მან. „მნიშვნელოვანია ვინ ქმნის AI-ს, რა კულტურებიდან მოდიან და რა ღირებულებები აქვთ. ხელოვნური ინტელექტის სისტემები დამოუკიდებლად ისწავლიან... მაგრამ სისტემა დარჩება აღბეჭდილი სისტემის ავტორების კულტურითა და ღირებულებებით."

ხელოვნური ინტელექტი მისი ავტორის ანარეკლია. მას არ შეუძლია გაანადგუროს ქალაქი მიწასთან 1,2 მეგატონის აფეთქებით. თუ ამას ადამიანი არ ასწავლის.

თქვენ შეგიძლიათ დაეხმაროთ უკრაინას რუსი დამპყრობლების წინააღმდეგ ბრძოლაში. ამის საუკეთესო გზაა უკრაინის შეიარაღებული ძალებისთვის თანხების შემოწირულობა Savelife ან ოფიციალური გვერდის საშუალებით NBU.

ასევე წაიკითხეთ:

ჯერილოვიცე-
დარეგისტრირდით
შეატყობინეთ შესახებ
სასტუმრო

0 კომენტარები
ჩაშენებული მიმოხილვები
ყველა კომენტარის ნახვა
სხვა სტატიები
გამოიწერეთ განახლებები

Ბოლო კომენტარები

პოპულარული ახლა
0
ჩვენ გვიყვარს თქვენი აზრები, გთხოვთ დააკომენტარეთ.x