בתמונה : Geoffrey Hinton, יועץ מדעי ראשי במכון וקטור, נואם במהלך פורום טורונטו העולמי של הפורום הכלכלי הבינלאומי של אמריקה (IEFA) בטורונטו, אונטריו, קנדה, ביום חמישי, 5 בספטמבר, 2019.
לפי הניו יורק טיימס , חלוץ הבינה המלאכותית ד"ר ג'פרי הינטון התפטר מגוגל כדי שיוכל "לדבר בחופשיות" על סיכונים פוטנציאליים הנשקפים מ-AI. הינטון, שעזר ליצור חלק מהטכנולוגיה הבסיסית מאחורי מערכות הבינה המלאכותית של ימינו, חושש שהדחף של תעשיית הטכנולוגיה לפתח מוצרי בינה מלאכותית עלול לגרום לתוצאות מסוכנות - ממידע מוטעה ועד לאובדן מקומות עבודה או אפילו איום על האנושות.
"תראה איך זה היה לפני חמש שנים ואיך זה עכשיו", ציטט ה"טיימס" את הינטון. "קח את ההבדל ותפיץ אותו קדימה. זה מפחיד".
קורות החיים של הינטון בתחום הבינה המלאכותית משתרעים עד 1972, והישגיו השפיעו על הפרקטיקות הנוכחיות בבינה מלאכותית גנרטיבית.
בשנת 1987, Hinton, David Rumelhart, ו Ronald J. Williams הפיקו את ההפצה לאחור , טכניקת מפתח לאימון רשתות עצביות המשמשת במודלים של בינה מלאכותית של ימינו.
בשנת 2012, Hinton, Alex Krizhevsky, ו Ilya Sutskever יצרו את AlexNet , אשר מקובל להתייחס אליו כפריצת דרך בחזון מכונה ולמידה עמוקה, וזה ללא ספק התחיל את העידן הנוכחי שלנו של AI גנרטיבי. בשנת 2018 זכה הינטון בפרס Turing , שיש המכנים "פרס נובל למחשוב", יחד עםYoshua Bengio ו Yann LeCun.
הינטון הצטרף לגוגל ב-2013 לאחר שגוגל רכשה את החברה של הינטון, DNNresearch.
עזיבתו עשור לאחר מכן מסמנת רגע בולט עבור תעשיית הטכנולוגיה, שכן היא בו זמנית מתחזקת ומתרה מראש על ההשפעה הפוטנציאלית של מערכות אוטומציה מתוחכמות יותר ויותר.
לדוגמה, שחרור ה- GPT-4 של OpenAI במרץ הוביל קבוצה של חוקרי טכנולוגיה לחתום על מכתב פתוח הקורא להקפאת חצי שנה על פיתוח מערכות בינה מלאכותיות חדשות "חזקות יותר" מ-GPT-4. עם זאת, כמה מבקרים בולטים חושבים שפחדים כאלה הם מוגזמים או שגויים.
הינטון לא חתם על המכתב הפתוח הזה, אבל הוא מאמין שתחרות עזה בין ענקיות טכנולוגיה כמו גוגל ומיקרוסופט עלולה להוביל למירוץ AI עולמי שניתן לעצור רק באמצעות רגולציה בינלאומית. הוא מדגיש שיתוף פעולה בין מדענים מובילים כדי למנוע AI מלהיות בלתי נשלט.
"אני לא חושב ש[חוקרים] צריכים להגדיל את זה יותר, עד שהם יבינו אם הם יכולים לשלוט בזה", אמר ל"Times".
הינטון מודאג גם מהתפשטות של מידע כוזב בתמונות, בסרטונים ובטקסט, מה שמקשה על אנשים להבחין מה נכון. הוא גם חושש שבינה מלאכותית יכולה לשפר את שוק העבודה, בתחילה יהיה צורך בהשלמה של עובדים אנושיים, אך בסופו של דבר תחליף אותם בתפקידים כמו עו"ד, עוזרים אישיים ומתרגמים שמטפלים במשימות שגרתיות.
הדאגה ארוכת הטווח של הינטון היא שמערכות AI עתידיות יכולות לאיים על האנושות כשהן לומדים התנהגות בלתי צפויה מכמויות אדירות של נתונים.
"הרעיון שהדבר הזה יכול להיות יותר חכם מאנשים - כמה אנשים האמינו בזה", אמר ל"טיימס". "אבל רוב האנשים חשבו שזה רחוק. ואני חשבתי שזה רחוק. חשבתי שזה עוד 30 עד 50 שנה או אפילו יותר. ברור, אני כבר לא חושב כך".
האזהרות של הינטון מרגישות בולטות מכיוון שבשלב מסוים הוא היה אחד התומכים הגדולים בתחום.
בפרופיל של Toronto Star ,משנת 2015 , הביע הינטון התלהבות מהעתיד של הבינה המלאכותית ואמר: "אני לא חושב שאי פעם אפרוש". אבל היום, הטיימס אומר שהדאגה של הינטון לגבי עתיד הבינה המלאכותית גרמה לו להתחרט חלקית על מפעל חייו.
"אני מנחם את עצמי בתירוץ הרגיל: אם לא הייתי עושה את זה, מישהו אחר היה עושה זאת", אמר.
כמה מבקרים הטילו גישה סקפטית על התפטרותו של הינטון והחרטה שלו. בתגובה לכתבה של הניו יורק טיימס, ד"ר Sasha Luccioni מ-Huging Face צייצה בטוויטר , "אנשים מתייחסים לזה כמשמעות: תראה, AI הופך להיות כל כך מסוכן, אפילו החלוצים שלו עוזבים. אני רואה את זה בתור: האנשים שיש להם גרם אחריות לבעיה, הם עכשיו קופצים מהספינה."
ביום שני הבהיר הינטון את המניעים שלו לעזוב את גוגל. הוא כתב בציוץ: "ב-NYT היום, Cade Metz רומז שעזבתי את גוגל כדי שאוכל לבקר את גוגל. למעשה, עזבתי כדי שאוכל לדבר על הסכנות של AI מבלי לשקול כיצד זה משפיע על גוגל. גוגל פעלה באחריות רבה".