Root Nationחֲדָשׁוֹתחדשות ITראש גוגל לשעבר השווה בין בינה מלאכותית לנשק גרעיני

ראש גוגל לשעבר השווה בין בינה מלאכותית לנשק גרעיני

-

מנכ"ל גוגל לשעבר, אריק שמידט, השווה בין בינה מלאכותית (AI) לנשק גרעיני וקרא למשטר הרתעה, בדומה להשמדה מובטחת הדדית, שמונע מהמדינות החזקות בעולם להרוס זו את זו.

ראש גוגל לשעבר השווה בין בינה מלאכותית לנשק גרעיני

שמידט דיבר על הסכנות של בינה מלאכותית בפורום האבטחה של אספן ב-22 ביולי במהלך דיון על ביטחון לאומי ובינה מלאכותית. כשנשאל על ערכו של המוסר בטכנולוגיה, שמידט הסביר שהוא עצמו היה תמים לגבי כוחו של המידע בימיה הראשונים של גוגל. לאחר מכן הוא קרא לטכנולוגיה שתתאים יותר לאתיקה ולמוסר של האנשים שהם משרתים, וערך השוואה מוזרה בין בינה מלאכותית לנשק גרעיני.

שמידט דיבר על העתיד הקרוב, שבו סין וארצות הברית צריכות להגיע להסכם בנושא בינה מלאכותית. "בשנות ה-50 וה-60, בסופו של דבר יצרנו עולם שבו היה כלל 'ללא הפתעות' לניסויים גרעיניים, וכתוצאה מכך הם נאסרו", אמר שמידט. "זו דוגמה למאזן האמון או חוסר האמון, זה הכלל של 'אין הפתעות'". אני מאוד מודאג מכך שההשקפה של ארה"ב על סין כמושחתת או קומוניסטית או מה שלא יהיה, והראייה של סין על אמריקה כמפסידה... יאפשרו לאנשים לומר, "אלוהים אדירים, הם זוממים משהו", ואז יתחיל משהו לא מובן...

AI ולמידת מכונה היא טכנולוגיה מרתקת ולעתים קרובות לא מובנת כהלכה. הוא בעצם לא חכם כמו שאנשים חושבים. זה יכול ליצור יצירות אמנות ברמת יצירת מופת, לנצח אנשים ב-Starcraft II ולבצע שיחות טלפון בסיסיות למשתמשים. עם זאת, הניסיונות לגרום לו לבצע משימות קשות יותר, כמו נהיגה במכונית בעיר גדולה, לא צלחו.

שמידט מדבר על עתיד קרוב דמיוני שבו הן סין והן ארה"ב יהיו מודאגות בנושאי אבטחה, מה שיאלץ אותן להיכנס לסוג של אמנה להכיל AI. הוא נזכר בשנות ה-1950 וה-60, כאשר הדיפלומטיה פיתחה סדרה של בקרות סביב כלי הנשק הקטלניים ביותר על פני כדור הארץ. אבל זה לקח עשור של פיצוצים גרעיניים, והכי חשוב, השמדת הירושימה ונגסאקי, עד שהשלום יגיע לפני סיום אמנת האיסור על ניסויים גרעיניים, SALT II וחקיקה נקודתית אחרת.

שתי ערים יפניות שנהרסו על ידי אמריקה בסוף מלחמת העולם השנייה גבו את חייהם של עשרות אלפי אנשים והוכיחו לעולם את הזוועה הנצחית של הנשק הגרעיני. אז מיהרו ממשלות רוסיה וסין לרכוש נשק. הדרך שבה אנו חיים עם האפשרות שייעשה שימוש בכלי נשק אלו היא מה שמכונה הרס הדדי (MAD), תיאוריית הרתעה שמבטיחה שאם מדינה אחת תשגר נשק גרעיני, ייתכן שכל מדינה אחרת תרצה. אנחנו לא משתמשים בכלי הנשק ההרסניים ביותר על פני כדור הארץ בגלל האפשרות שזה יהרוס לפחות את הציוויליזציה ברחבי העולם.

למרות ההערות הצבעוניות של שמידט, אנחנו לא רוצים או צריכים MAD עבור AI. ראשית, AI עדיין לא הוכיח את כוח ההרס שלה בהשוואה לנשק גרעיני. אבל אנשי השלטון חוששים מהטכנולוגיה החדשה הזו, ובדרך כלל מהסיבות הלא נכונות. אנשים אפילו הציעו להעביר את השליטה בנשק גרעיני לבינה מלאכותית, מתוך אמונה שזה יהיה בורר טוב יותר בשימוש בו מאשר אדם.

ראש גוגל לשעבר השווה בינה מלאכותית לנשק גרעיני

הבעיה עם בינה מלאכותית היא לא שיש לה כוח הרסני של נשק גרעיני. הנקודה היא שהבינה המלאכותית טובה רק כמו האנשים שפיתחו אותה, ושהיא נושאת את הערכים של יוצריה. בינה מלאכותית סובלת מבעיית "זבל פנימה, זבל החוצה" הקלאסית: אלגוריתמים גזעניים יוצרים רובוטים גזעניים, וכל בינה מלאכותית נושאת את ההטיות של יוצריה.

נראה שדמיס חסביס, מנכ"ל DeepMind, החברה שאימנה את ה-AI שמנצחת שחקני Starcraft II, מבינה זאת טוב יותר משמידט. בראיון ביולי בפודקאסט של לקס פרידמן, פרידמן שאל את חסביס כיצד ניתן לשלוט בטכנולוגיה חזקה כמו בינה מלאכותית, וכיצד חסאביס עצמו יכול להימנע מהשחתה מהכוח הזה.

התשובה של ח'סאביס היא על עצמו. "בינה מלאכותית היא רעיון גדול מדי", אמר. "חשוב מי יוצר בינה מלאכותית, מאילו תרבויות הם באים ומה הערכים שלהם. מערכות בינה מלאכותית ילמדו מעצמן... אבל המערכת תישאר טבועה בתרבות ובערכים של מחברי המערכת".

בינה מלאכותית היא השתקפות של מחברו. זה לא יכול להרוס עיר עד היסוד בפיצוץ של 1,2 מגהטון. אלא אם כן אדם ילמד אותו את זה.

אתה יכול לעזור לאוקראינה להילחם נגד הפולשים הרוסים. הדרך הטובה ביותר לעשות זאת היא לתרום כספים לכוחות המזוינים של אוקראינה באמצעות הצלת חיים או דרך העמוד הרשמי NBU.

קרא גם:

מָקוֹרסְגָן
הירשם
תודיע על
אורח

0 תגובות
ביקורות משובצות
הצג את כל ההערות
מאמרים אחרים
הירשם לקבלת עדכונים
פופולרי עכשיו