top of page
  • תמונת הסופר/תOr Manor

מומחה למידת מכונה קורא להפצצת מרכזי נתונים כדי לעצור את עליית הבינה המלאכותית / אור מנור /02.04.23

עודכן: 4 במאי 2023

אחד ממבקרי הבינה המלאכותית הקולניים ביותר בעולם פרסם קריאה נוקבת לא רק להפסיק את הבינה המלאכותית, אלא לשים לזה קץ במיליטנציה - לפני שזה יסיים אותנו במקום זאת. הוא אומר שאחרי AGI, "ממש כולם על פני כדור הארץ ימותו"


במאמר שנכתב למגזין "טיים" , חוקר למידת מכונה אליעזר יודקובסקי, שכבר יותר משני עשורים מזהיר מפני העתיד הדיסטופי שיבוא כאשר נשיג בינה כללית מלאכותית (AGI), שוב מצלצל בפעמוני האזעקה.




יודקובסקי אמר שבעוד שהוא מברך את החותמים על המכתב הפתוח האחרון של מכון עתיד החיים - הכולל את מנכ"ל SpaceX אילון מאסק, מייסד שותף של אפל סטיב ווזניאק, והמועמד לשעבר לנשיאות אנדרו יאנג - הקורא להשהות של שישה חודשים בקידום הבינה המלאכותית לעשות חשבון נפש, הוא עצמו לא חתם על זה כי זה לא מגיע מספיק רחוק.

"נמנעתי מלחתום כי אני חושב שהמכתב ממעיט בחומרת המצב", כתב חוקר המל"ל, "ומבקש מעט מדי כדי לפתור אותו".
כחוקר ותיק של AGI, יודקובסקי אומר שהוא פחות מודאג מבינה מלאכותית "תחרותית" מאשר "מה קורה אחרי".
"ייתכן שספי מפתח שם אינם ברורים", כתב, "אנחנו בהחלט לא יכולים לחשב מראש מה קורה מתי, וכרגע נראה שניתן להעלות על הדעת שמעבדת מחקר תחצה קווים קריטיים מבלי לשים לב".

לאחר שזכה לביקורת בבלומברג על היותו "מרחיב בינה מלאכותית", אומר יודקובסקי שהוא לא האדם היחיד "שקוע בבעיות האלה" שמאמין ש"התוצאה הסבירה ביותר של בניית בינה מלאכותית חכמה על-אנושית, בכל דבר רחוק כמו הנסיבות הנוכחיות, היא ממש כולם על פני כדור הארץ ימותו".


יש לו גם את הקבלות כדי לגבות את זה, תוך שהוא מצטט סקר מומחים שבו חבורה מהנשאלים היו מודאגים מאוד מ"הסיכונים הקיומיים" הנשקפים מ-AI.


סיכונים אלה אינם, כתב יודקובסקי ב- Time , רק אפשרויות רחוקות.


"זה לא שאתה לא יכול, באופן עקרוני, לשרוד ביצירת משהו הרבה יותר חכם ממך", הוא הרהר, "זה שזה ידרוש דיוק והכנה ותובנות מדעיות חדשות, וכנראה שלא יהיו לך מערכות בינה מלאכותית המורכבות ממערכי ענק בלתי ניתנים לבדיקה של מספרים שברים."


יש, לדעתו של יודקובסקי, אבל פתרון אחד לאיום הקיומי הממשמש ובא של AGI על-אנושי "עוין": "פשוט סגור את הכל", בכל אמצעי הכרחי.


"סגור את כל אשכולות ה-GPU הגדולים (חוות המחשבים הגדולות שבהן מעודנים את ה-AI החזקים ביותר)", כתב. "סגור את כל ריצות האימונים הגדולות. שימו תקרה על כמות כוח המחשוב שמותר לכל אחד להשתמש באימון מערכת בינה מלאכותית, והזיזו אותה כלפי מטה במהלך השנים הקרובות כדי לפצות על אלגוריתמי אימון יעילים יותר. אין חריגים עבור ממשלות וצבאות ."

אם מישהו יפר את הסנקציות העתידיות הללו נגד AI, כתב חוקר ה-ML, יהיה חייב לשלם.

"אם המודיעין אומר שמדינה מחוץ להסכם בונה מקבץ GPU, פחד פחות מעימות ירי בין מדינות מאשר מהפרת ההקפאה", הוא ייעץ. "תהיה מוכן להרוס מרכז נתונים סורר על ידי תקיפה אווירית."

בהתייחסו לחילופי דברים עם בת זוגו ואם ילדו, אמר יודקובסקי כי בני הזוג מודאגים שבתם נינה לא תשרוד לבגרות אם אנשים ימשיכו לבנות AI חכמים וחכמים יותר - והפציר באלו שמביעים גם חשש לגבי זה לאמץ קו קשה דומה כי אם לא, זה "משמעותי שגם הילדים שלהם ימותו".


א קשה לראות, חשיבה של "אבל מה עם הילדים", מדוע אלן הואט מבלומברג כינה את יודקובסקי "גורע" לאחר שנכנס לזה עם סם אלטמן של OpenAI בטוויטר.


עם זאת, אם מישהו שבאמת הקדיש את חייו לחקר הסכנות של עתיד הבינה המלאכותית הדיסטופית אומר שאנחנו מתקרבים לדבר שהוא הזהיר לגביו, אולי כדאי להקשיב לו.


מומחים דוחקים בהגדרת זכויות אדם עבור ה-AI ה"מודעים" של העתיד.









מומחים דוחקים בהגדרת זכויות אדם עבור ה-AI ה"מודעים" של העתיד.


הנה מה שבאמת צריך להיעשות לדעתו :


1. ההקפאה של הכשרות גדולות חדשות בתחום הקפאה בלתי מוגבלת ולעולם כולו. לא יכולים להיות חריגים, כולל עבור ממשלות או צבאות. אם המדיניות מתחילה בארה"ב, אז סין צריכה לראות שארה"ב לא מחפשת יתרון אלא מנסה למנוע טכנולוגיה מסוכנת להחריד שלא יכול להיות לה בעלים אמיתי ואשר תהרוג את כולם בארה"ב ובסין ובכדור הארץ . אם היה לי חופש אינסופי לכתוב חוקים, אולי הייתי מוצא חריג יחיד עבור AIs שהוכשרו אך ורק כדי לפתור בעיות בביולוגיה וביוטכנולוגיה, לא מאומנים על טקסט מהאינטרנט, ולא לרמה שבה הם מתחילים לדבר או לתכנן; אבל אם זה היה מסבך מעט את הנושא, הייתי מוותר מיד על ההצעה ואומר פשוט לסגור את הכל.


2. לכבות את כל אשכולות ה-GPU הגדולים (חוות השרתים הגדולות שבהן משוכללים ה-AI החזקים ביותר) לסגור את כל ריצות האימונים הגדולות. שימו תקרה על כמות כוח המחשוב שמותר לכל אחד להשתמש באימון מערכת בינה מלאכותית, והזיזו אותה כלפי מטה במהלך השנים הקרובות כדי לפצות על אלגוריתמי אימון יעילים יותר. אין חריגים עבור ממשלות וצבאות.


3. לערוך הסכמים רב לאומיים מיידיים כדי למנוע מהפעילויות האסורות לעבור למקום אחר. לעקוב אחר כל ה-GPUs שנמכרו. אם המודיעין אומר שמדינה מחוץ להסכם בונה מקבץ GPU, פחד פחות מעימות ירי בין מדינות מאשר מהפרת ההקפאה;


4. להיות מוכן להרוס מרכז נתונים סורר על ידי תקיפה אווירית.

להגדיר במפורש בדיפלומטיה הבינלאומית שמניעת תרחישי הכחדת בינה מלאכותית נחשבת בראש סדר העדיפויות מעל מניעת חילופי גרעיניים מלאים, וכי מדינות בעלות הברית מוכנות להסתכן בסיכון מסוים בחילופי גרעיניים אם זה מה שנדרש כדי להפחית את הסיכון של ריצות אימון גדולות של בינה מלאכותית.


סגרו את הכל.

"אנחנו לא מוכנים. אנחנו לא במסלול להיות מוכנים משמעותית בעתיד הנראה לעין. אם נמשיך בזה כולם ימותו, כולל ילדים שלא בחרו בזה ולא עשו שום דבר רע."


_מה דעתכם.ן : מציאות או הגזמה?



or_manor


42 צפיות0 תגובות

פוסטים אחרונים

הצג הכול

Funding opportunities and business resources – April 2024

It may be April Fools’ Day, but this report is no joke!   A few of the opportunities have April 1st deadlines – so please skim through the list today! @Or_Manor The items listed include global and cou

קהילת Innovation Social club מתגייסת ומציע כמאה יוזמות עבור קהילת הטק בזמן מלחמת ''חרבות הברזל''

בקישור 4 טבלאות ; 1. מענקים והשקעות 2. רשימה של 430 קרנות הון סיכון תומכות בישראל - חיבורים ּּּדרך אור מנור. 3. יוזמות קהילת Innovation Social club 4. יוזמות רלוונטיות בקהילת הטק https://docs.google.c

Comments


bottom of page