Root Nationסטטטיניתוחשש מצוות של בינה מלאכותית

שש מצוות של בינה מלאכותית

-

השנים הבאות יעמדו בסימן התפתחות מהירה של טכנולוגיות בינה מלאכותית. אולי יש צורך להציג מסגרות מוגדרות בבירור ליצירה ושימוש ב-AI? האם 6 חודשי ניסיון מספיקים כדי להסדיר טכנולוגיה שעוד לא יצאה מהמעבדה? השאלה הזו מגיעה יותר ויותר מפיהם של מומחים ועיתונאים בכל הנוגע לבינה מלאכותית. קולות וקריאות לנקוט באמצעים להסדרת בינה מלאכותית - הן ברמת המשתמש והן ברמת פיתוח הפרויקט - נשמעים יותר ויותר. ההיסטוריה של פניות כאלה החלה די מזמן.

הנוכחות בכל מקום של בינה מלאכותית במרחב הדיגיטלי ומעל לכל, של מודלים המסוגלים ליצור תוכן שלא יהיה שונה מזה שנוצר על ידי בני אדם, מעוררת רגשות שונים מאוד. מצד אחד, יש לנו קבוצה של חובבים שרואה את העתיד ב-AI ולמרות היכולות המוגבלות יחסית שלה (כי בינה מלאכותית לא חושבת, ולעתים קרובות רק לוקחת מידע מהאינטרנט), לא חוששת להפקיד בה משימות רבות. . בצד השני של המתרס נמצאת קבוצה המביעה את ספקנותה ודאגתה לגבי המגמות העכשוויות בהתפתחות הבינה המלאכותית.

הנחת AI

הגשר בין שתי הקבוצות הוא חוקרי בינה מלאכותית, שמצד אחד מביאים דוגמאות רבות לאופן שבו הבינה המלאכותית השפיעה לטובה על המציאות הסובבת. יחד עם זאת, הם מבינים שמוקדם מדי לנוח על זרי הדפנה, וקפיצה טכנולוגית אדירה מביאה אתגרים רבים ואחריות גדולה. דוגמה מובהקת לגישה זו היא קבוצה בינלאומית של חוקרי בינה מלאכותית ולמידת מכונה בראשות ד"ר אוזלם גריביי מאוניברסיטת מרכז פלורידה. הפרסום בן 47 העמודים, שנכתב על ידי 26 מדענים מרחבי העולם, מזהה ומתאר שישה אתגרים שמוסדות מחקר, חברות ותאגידים חייבים להתמודד עליהם כדי להפוך את המודלים שלהם (ואת התוכנה שמשתמשת בהם) לאבטחים.

כן, זו עבודה מדעית רצינית עם הסברים חשובים להבנת עתיד הבינה המלאכותית. מי שמעוניין, יכול באופן עצמאי קרא את הדו"ח המדעי הזה ולהסיק מסקנות משלך. במילים פשוטות, מדענים זיהו 6 מצוות של בינה מלאכותית. כל הפיתוחים והפעולות של בינה מלאכותית חייבות להתאים להן כדי שיהיה בטוח לאנשים ולעולם.

הנחת AI

במאמרי, שנכתב בדיוק על בסיס עבודה מדעית זו, אנסה לנסח את ההנחות העיקריות, חוקים שלפיהם בינה מלאכותית צריכה להתקיים ולהתפתח. כן, זו הפרשנות הכמעט חופשית שלי למסקנות של מדענים לגבי התפתחות הבינה המלאכותית וניסיון להציג אותן, כביכול, בגרסה מקראית. אבל כך רציתי להציג בפניכם את העבודה המדעית הזו של מדענים מכובדים.

מעניין גם: בניית AI: מי מוביל את המירוץ?

החוק הראשון: רווחת האדם

ההנחה הראשונה של החוקרים היא למקד את עבודת הבינה המלאכותית ברווחת האדם. בשל היעדר "ערכים אנושיים, שכל ישר ואתיקה", בינה מלאכותית יכולה לפעול באופן שיוביל להידרדרות משמעותית ברווחת האדם. בעיות יכולות להיות תוצאה של היכולות העל-אנושיות של בינה מלאכותית (למשל, באיזו קלות AI מנצח בני אדם - ולא רק בשחמט), אלא גם מהעובדה שה-AI לא חושב בעצמו, ולכן לא מסוגל "לסנן" הטיות או טעויות ברורות.

AI Postulat

- פרסום -

חוקרים מציינים כי אמון מוגזם בטכנולוגיות של בינה מלאכותית יכול להשפיע לרעה על רווחתם של אנשים. חברה שיש לה מעט הבנה כיצד אלגוריתמי בינה מלאכותית פועלים בפועל נוטה לסמוך עליה יתר על המידה, או להיפך, יש לה גישה שלילית כלפי תוכן שנוצר על ידי מודל מסוים, בפרט, צ'אטבוטים. בהתחשב בגורמים אלו ואחרים, הצוות של Garibay קורא לשים את רווחת האדם במרכז האינטראקציות העתידיות של AI-אנושי.

קרא גם: ChatGPT: מדריך למשתמש פשוט

החוק השני: אחריות

דין וחשבון הוא מונח שממשיך לצוץ בעולם הבינה המלאכותית בהקשר למה אנחנו משתמשים בלמידת מכונה, ואיך בדיוק מפתחים ומאמנים מודלים ואלגוריתמים של בינה מלאכותית. הצוות הבינלאומי מדגיש כי התכנון, הפיתוח והיישום של בינה מלאכותית צריכים להיעשות אך ורק מתוך כוונות טובות.

AI Postulat

לדעתם, אחריות צריכה להיחשב לא רק בהקשר טכני, אלא גם בהקשר משפטי ואתי. יש להתייחס לטכנולוגיה לא רק מנקודת מבט של יעילותה, אלא גם בהקשר של השימוש בה.

"עם כניסת טכניקות למידת מכונה מתקדמות, זה הופך להיות חשוב יותר ויותר להבין כיצד התקבלה החלטה ומי אחראי לה” – כותבים את החוקרים.

החוק השלישי: חיסיון

פרטיות היא נושא שבומרנג בכל שיח על טכנולוגיה. במיוחד כשהכל נדון ברשתות החברתיות. עם זאת, זה חשוב ביותר עבור בינה מלאכותית כי זה לא קיים ללא מסד נתונים. ומה זה מאגרי מידע?

מדענים מתארים אותם כ"הפשטה של ​​אבני הבניין הבסיסיות המרכיבות את הדרך בה אנו רואים את העולם". בלוקים אלו הם בדרך כלל ערכים ארציים: צבעים, צורות, טקסטורות, מרחקים, זמן. בעוד בינה מלאכותית צרה מתמקדת במטרה בודדת, כגון המידה שבה התריס נפתח בעוצמת אור נתונה, משתמשת בנתונים אובייקטיביים זמינים לציבור, AI ביישומים רחבים יותר (כאן, למשל, מודלים של טקסט לתמונה כגון Midjourney , או מודלים של שפה כגון ChatGPT ) יכולים להשתמש בנתונים על אנשים שנוצרו על ידי אנשים. יש לציין גם מאמרים בעיתונות, ספרים, איורים ותצלומים שפורסמו באינטרנט. לאלגוריתמים של בינה מלאכותית יש גישה להכל, כי אנחנו בעצמנו נתנו להם אותה. אחרת, הוא לא יידע כלום ולא ייתן תשובות לכל שאלה.

AI Postulat

נתוני המשתמשים משפיעים באופן מהותי הן על האנשים שעליהם נאספים הנתונים הללו והן על האנשים במערכת שבה ייושמו אלגוריתמי הבינה המלאכותית.

לפיכך, האתגר השלישי נוגע להבנה רחבה של פרטיות ומתן זכויות כגון הזכות להישאר לבד, הזכות להגביל את הגישה לעצמו, הזכות לסודיות של חייו האישיים או העסקים, הזכות לשלוט בפרט. מידע, כלומר, הזכות להגן על אישיותו, האינדיבידואליות וכבודו. כל זה חייב להיות כתוב באלגוריתמים, אחרת פרטיות פשוט לא תהיה קיימת, ואלגוריתמי AI יכולים לשמש בתוכניות הונאה וגם בעבירות פליליות.

קרא גם: 7 הדרכים המגניבות ביותר להשתמש ב-ChatGPT

חוק רביעי: מבנה הפרויקט

בינה מלאכותית יכולה להיות פשוטה ביותר וחד-תכליתית, אבל במקרה של דגמים גדולים יותר עם אופי רחב ומרובה משימות, הבעיה היא לא רק פרטיות הנתונים, אלא גם המבנה העיצובי.

לדוגמה, ל-GPT-4, מודל הבינה המלאכותית העדכנית של OpenAI, למרות גודלו והשפעתו על עולם הבינה המלאכותית (ומעבר לו), אין תיעוד ציבורי מלא. כלומר, אין לנו הבנה מהן המטרות הסופיות עבור המפתחים, מה הם רוצים לקבל בתוצאה הסופית. לכן, איננו יכולים להעריך באופן מלא את הסיכונים הכרוכים בשימוש במודל AI זה. GPT-3, לעומת זאת, מאומן על נתונים מפורום 4chan, הוא דגם שאתה בהחלט לא רוצה ליצור איתו אינטראקציה. פורום 4chan הוא אחת התופעות המעניינות ביותר באינטרנט. זוהי דוגמה לאנרכיה מוחלטת, מוחלטת, שבפועל אינה מוגבלת בשום מסגרת. זה המקום שבו נוצרו קבוצות פריצה כמו אנונימוס או LulzSec. זהו המקור לרבים מהממים הפופולריים ביותר, מקום לדון בנושאים שנויים במחלוקת ולפרסם דעות שנויות במחלוקת אף יותר. למרות שבלוח התדמית בשפה האנגלית מציינים ש"עד כה זה חוקי", זה קצת מוטל בספק, בהתחשב בכך ש-4chan עוסקת מדי פעם בתקשורת, כולל תוכן גזעני, נאצי וסקסיסטי.

AI Postulat

- פרסום -

הצוות של פרופסור גריביי רוצה שכל מודל של בינה מלאכותית יעבוד במסגרת מוגדרת בבירור. לא רק בגלל רווחתו של האדם איתו ה-AI מקיים אינטראקציה, אלא גם בגלל היכולת להעריך את הסיכונים הכרוכים בשימוש במודל. המבנה של כל פרויקט צריך לכלול כיבוד הצרכים, הערכים והרצונות של קבוצות תרבותיות ובעלי עניין שונים. תהליך היצירה, האימון והכוונן העדין של AI צריך להיות ממוקד ברווחת האדם, והתוצר הסופי - מודל ה-AI - צריך להיות ממוקד בשיפור ושיפור התפוקה של הקהילה האנושית עצמה. מודלים שבהם לא ניתן לזהות סיכונים צריכים להיות בעלי גישה מוגבלת או מבוקרת. הם לא צריכים להוות איום על האנושות, אלא להיפך, לתרום לפיתוח האדם והחברה כולה.

קרא גם: Twitter בידי אילון מאסק - איום או "שיפור"?

החוק החמישי: ממשל ופיקוח עצמאי

אלגוריתמי בינה מלאכותית ממש שינו את העולם בשנה אחת בלבד. בארד מאת גוגל ובינג שידור בכורה מאת Microsoft השפיע באופן משמעותי על מניות שתי הענקיות בבורסה. אגב, הם תרמו לצמיחת מניות החברות הללו גם על רקע המניות Apple. ChatGPT החל להיות בשימוש פעיל על ידי תלמידי בית הספר, הם מתקשרים איתו, בוחנים אותו ושואלים שאלות. הדבר החשוב ביותר הוא שיש לו את היכולת ללמוד את עצמו, לתקן את הטעויות שלו. בינה מלאכותית אפילו מתחילה לעבוד בממשלות של כמה מדינות. זה המקרה של ראש ממשלת רומניה, ניקולאי צ'וקה שכר וירטואלי עוזר שיידע אותו על צורכי החברה. כלומר, הבינה המלאכותית משחקת תפקיד חשוב יותר ויותר בחיינו.

AI

בהתחשב בתלות ההדדית ההולכת וגוברת בין בינה מלאכותית, בני אדם והסביבה, מדענים רואים צורך ביצירת גופים מנהלים ופיקוח עצמאי על התפתחותה. גופים אלו ישלטו בכל מחזור החיים של הבינה המלאכותית: מהרעיון ועד הפיתוח והיישום. הרשויות יגדירו כראוי מודלים שונים של AI וישקלו מקרים הקשורים לבינה מלאכותית ולנושאים של חיי חברה. כלומר, בינה מלאכותית יכולה להפוך לנושא של תיקי משפט, כמו גם תביעות משפטיות. אמנם, כמובן, לא הוא אישית, אלא המפתחים שלו.

קרא גם: הכל על Neuralink: תחילתו של טירוף הסייברפאנק?

החוק השישי: האינטראקציה בין האדם לבין הבינה המלאכותית

בתוכנות בינה מלאכותית, כל אחד יכול למצוא משהו לעצמו: ליצור טקסט, לזהות תוכן בתמונות, לענות על שאלות, ליצור תמונות, לזהות אנשים בתמונות, לנתח נתונים. השימושים המרובים הללו אינם רק דאגה לאנשים המנסים להתאים את הבינה המלאכותית לסטנדרטים משפטיים ואתיים. רבים חוששים להיות עקורים משוק העבודה על ידי מודלים של AI. כי אלגוריתמי בינה מלאכותית יוכלו לעשות את אותו הדבר מהר יותר, זול יותר ואולי אפילו טוב יותר מאדם. יחד עם זאת, ישנם אנשים שמסתמכים על AI בעבודתם, כלומר, בינה מלאכותית היא כבר עוזר הכרחי עבורם כיום.

AI

אבל מהמחקרים אליהם התייחסו המדענים, ברור שהחלפת אנשים בכוח עבודה מלאכותי זול עדיין רחוקה למדי. למרות זאת, הם כבר מתעקשים על הצורך להקים היררכיה קפדנית של אינטראקציה בין בני אדם לבינה מלאכותית. לדעתם, יש להציב בני אדם מעל בינה מלאכותית. יש ליצור בינה מלאכותית תוך כבוד ליכולות הקוגניטיביות של האדם, תוך התחשבות ברגשותיו, באינטראקציות החברתיות שלו, ברעיונות, בתכנון ובאינטראקציה עם אובייקטים. כלומר, בכל המצבים, האדם הוא זה שחייב לעמוד על הבינה המלאכותית, לשלוט בהתנהגות ובתוכן שיצר המודל, ולהיות אחראי עליה. במילים פשוטות, גם ה-AI המתקדם ביותר חייב לציית לאדם ולא לחרוג מהמותר, כדי לא לפגוע ביוצרו.

קרא גם: כיצד אוקראינה משתמשת ומתאימה את Starlink בזמן מלחמה

מסקנות

כן, מישהו יגיד שהמדענים לא ציינו שום דבר חשוב וחדש בדוח שלהם. כולם מדברים על זה כבר הרבה זמן. אבל כבר עכשיו יש צורך להכניס AI למסגרת חוקים כלשהי. להגיע ל-GPT-4 זה כמו להושיט יד לסכין בצורה עיוור. הם מסתירים מאיתנו מידע מרכזי. כל ההתפתחויות בתחום הבינה המלאכותית, ובמיוחד פרויקט ChatGPT מ-Open AI, מזכירים לי פעמים רבות את גידול ילד קטן. לפעמים נדמה שמדובר בילד ממוצא חייזר. כן, חייזר, אבל הוא עדיין ילד שלומד, עושה טעויות, לפעמים מתנהג בצורה לא הולמת, עצבני, מתווכח עם הוריו. למרות שהוא גדל ומתפתח מהר מאוד.

AI

ייתכן שהאנושות לא תעמוד בקצב ההתפתחות שלה, והדברים עלולים לצאת משליטה. לכן, האנושות כבר צריכה להבין למה אנחנו מפתחים את כל זה, לדעת את המטרות הסופיות, להיות "הורים אחראיים", כי אחרת "הילד" יכול פשוט להרוס את "הוריו".

קרא גם: 

Yuri Svitlyk
Yuri Svitlyk
בן הרי הקרפטים, גאון בלתי מוכר במתמטיקה, "עורך דין"Microsoft, אלטרואיסט מעשי, שמאל-ימין
- פרסום -
הירשם
תודיע על
אורח

0 תגובות
ביקורות משובצות
הצג את כל ההערות