Infinix صفر 30
Root Nation Новини أخبار تكنولوجيا المعلومات يطالب خبراء التكنولوجيا بوقف تجارب الذكاء الاصطناعي

يطالب خبراء التكنولوجيا بوقف تجارب الذكاء الاصطناعي

الذكاء الاصطناعي

وقع قادة التكنولوجيا وباحثو الذكاء الاصطناعي البارزون رسالة مفتوحة، الأمر الذي يدعو مختبرات وشركات الذكاء الاصطناعي إلى "التعليق الفوري" لعملهم.

يوافق الموقعون ، بمن فيهم ستيف وزنياك وإيلون ماسك ، على أن المخاطر تتطلب على الأقل فترة توقف مدتها ستة أشهر من إنتاج التقنيات التي تتجاوز النطاق GPT-4. هذا للحصول على الفرح والرضا من أنظمة الذكاء الاصطناعي الموجودة الآن ، والسماح للناس بالتكيف معها ورؤية أنها مفيدة.

يدعو قادة وخبراء التكنولوجيا إلى وقف تجارب الذكاء الاصطناعي

وتضيف الرسالة أن الحذر والتدبر ضروريان لضمان سلامة أنظمة الذكاء الاصطناعي، ولكن يتم تجاهلهما. وتأتي الإشارة إلى GPT-4، وهو نموذج OpenAI جديد يمكنه الرد بنص على الرسائل المكتوبة أو المرئية، في الوقت الذي تتسابق فيه الشركات لبناء أنظمة دردشة متطورة باستخدام التكنولوجيا. مثال، Microsoft أكدت مؤخرًا أن محرك بحث Bing المحدث الخاص بها يعمل على طراز GPT-4 لأكثر من 7 أسابيع، كما قدمت Google مؤخرًا رسميًا الشاعر - تمتلك نظام الذكاء الاصطناعي التوليدي القائم على LaMDA.

كانت هناك مخاوف بشأن الذكاء الاصطناعي لفترة طويلة ، لكن السباق لتبني التكنولوجيا الأكثر تقدمًا واضح الذكاء الاصطناعي الأول ينذر بالخطر بالفعل. تقول الرسالة: "في الأشهر الأخيرة ، انخرطت مختبرات الذكاء الاصطناعي في سباق خارج عن السيطرة لتطوير وتنفيذ عقول رقمية قوية بشكل متزايد لا يمكن لأحد - ولا حتى مؤلفيها - فهمها أو التنبؤ بها أو التحكم فيها بشكل موثوق".

يدعو قادة وخبراء التكنولوجيا إلى وقف تجارب الذكاء الاصطناعي

تم نشر الرسالة من قبل منظمة Future of Life Institute (FLI) غير الربحية ، والتي تعمل على تقليل المخاطر الكارثية والوجودية العالمية وإساءة استخدام التقنيات الجديدة ، ولا سيما الذكاء الاصطناعي. في السابق ، تبرع Musk بمبلغ 10 ملايين دولار لشركة FLI لأبحاث أمان الذكاء الاصطناعي. بالإضافة إليه ووزنياك ، يضم الموقعون عددًا من قادة العالم في مجال الذكاء الاصطناعي ، مثل مركز الذكاء الاصطناعي ورئيس السياسة الرقمية مارك روثنبرغ ، والفيزيائي في معهد ماساتشوستس للتكنولوجيا ورئيس FLI ماكس تيجمارك ، والمؤلف يوفال نوح هراري.

شارك هراري أيضًا في تأليف مقال رأي في صحيفة نيويورك تايمز الأسبوع الماضي يحذر من المخاطر المرتبطة به الذكاء الاصطناعي، حيث عمل معه مؤسسا مركز التقنيات الإنسانية والموقعون الآخرون على الرسالة المفتوحة ، تريستان هاريس وآزا راسكين.

وتأتي هذه المكالمة في أعقاب دراسة استقصائية أجريت العام الماضي على أكثر من 700 باحث في مجال التعلم الآلي ، حيث قال نصفهم تقريبًا إن هناك احتمالًا بنسبة 10٪ لحدوث "عواقب وخيمة للغاية" من الذكاء الاصطناعي ، بما في ذلك الانقراض البشري. عند سؤالهم عن الأمان في أبحاث الذكاء الاصطناعي ، قال 68٪ من المستجيبين إن هناك حاجة إلى المزيد أو أكثر من ذلك بكثير.

اقرأ أيضا:

اشتراك
يخطر حول
ضيف

0 التعليقات
المراجعات المضمنة
عرض كل التعليقات
0
نحن نحب أفكارك، يرجى التعليق.x