Root Nationחֲדָשׁוֹתחדשות ITמומחי טכנולוגיה דורשים להפסיק את ניסויי בינה מלאכותית

מומחי טכנולוגיה דורשים להפסיק את ניסויי בינה מלאכותית

-

מנהיגי טכנולוגיה וחוקרי AI בולטים חתמו מכתב פתוח, שקוראת למעבדות וחברות בינה מלאכותית "להשהות לאלתר" את עבודתן.

החותמים, כולל סטיב ווזניאק ואילון מאסק, מסכימים שהסיכונים דורשים הפסקה של לפחות שישה חודשים מייצור טכנולוגיות החורגות מההיקף. GPT-4. זאת כדי להוציא את השמחה והסיפוק ממערכות הבינה המלאכותית הקיימות כעת, ולאפשר לאנשים להסתגל אליהן ולראות שהן מועילות.

מנהיגי טכנולוגיה ומומחים קוראים להפסיק את ניסויי בינה מלאכותית

המכתב מוסיף כי יש צורך בזהירות ובמחשבה מוקדמת כדי להבטיח את בטיחותן של מערכות בינה מלאכותית, אך מתעלמים מהן. ההתייחסות ל-GPT-4, מודל OpenAI חדש שיכול להגיב בטקסט להודעות כתובות או ויזואליות, מגיעה בזמן שחברות מרוצות לבנות מערכות צ'אט מתוחכמות באמצעות הטכנולוגיה. דוגמא, Microsoft לאחרונה אישרה שמנוע החיפוש המעודכן שלה בינג פועל על דגם ה-GPT-4 כבר למעלה מ-7 שבועות, וגוגל הציגה לאחרונה באופן רשמי מְשׁוֹרֵר - מערכת בינה מלאכותית גנרטיבית משלו המבוססת על LaMDA.

דאגות לגבי AI קיימות כבר זמן רב, אבל המירוץ לאמץ את הטכנולוגיה המתקדמת ביותר ברור בינה מלאכותית הראשון כבר מדאיג. "בחודשים האחרונים, מעבדות בינה מלאכותית נקלעו למרוץ בלתי מבוקר לפיתוח ויישום מוחות דיגיטליים חזקים יותר ויותר שאף אחד - אפילו לא המחברים שלהם - לא יכול להבין, לחזות או לשלוט בצורה מהימנה", נכתב במכתב.

מנהיגי טכנולוגיה ומומחים קוראים להפסיק את ניסויי בינה מלאכותית

המכתב פורסם על ידי הארגון ללא מטרות רווח Future of Life Institute (FLI), הפועל למזעור סיכונים קטסטרופליים וקיומיים גלובליים ושימוש לרעה בטכנולוגיות חדשות, בפרט בינה מלאכותית. בעבר, מאסק תרם 10 מיליון דולר ל-FLI עבור מחקר אבטחת בינה מלאכותית. בנוסף לו ולווזניאק, החותמים כוללים מספר מובילים עולמיים בתחום הבינה המלאכותית, כמו נשיא המרכז לבינה מלאכותית ומדיניות דיגיטלית מארק רוטנברג, פיזיקאי MIT ונשיא FLI מקס טגמרק והסופר יובל נח הררי.

הררי גם היה שותף לכתיבת מאמר ב"ניו יורק טיימס" בשבוע שעבר שהזהיר מפני הסיכונים הכרוכים בה בינה מלאכותית, שעליו עבדו איתו מייסדי המרכז לטכנולוגיות הומניות וחותמים נוספים על המכתב הפתוח, טריסטן האריס ועזה רסקין.

השיחה באה בעקבות סקר בשנה שעברה של יותר מ-700 חוקרי למידת מכונה, שבו כמעט מחצית אמרו שיש סיכוי של כ-10% ל"תוצאות רעות ביותר" של AI, כולל הכחדה אנושית. כשנשאלו על אבטחה במחקר בינה מלאכותית, 68% מהנשאלים אמרו שצריך לעשות יותר או הרבה יותר.

קרא גם:

מָקוֹרEngadget
הירשם
תודיע על
אורח

0 תגובות
ביקורות משובצות
הצג את כל ההערות