הגעתו של GPT-4, המהדורה האחרונה של מודל השפה הגדול (LLM) של OpenAI. GPT-4 עולה על קודמו מבחינת אמינות, יצירתיות ויכולת לעבד הוראות מורכבות. הוא יכול להתמודד עם הנחיות יותר ניואנסיות בהשוואה למהדורות קודמות, והוא רב-מודאלי, כלומר הוכשר הן על תמונות והן על טקסט. אנחנו עדיין לא מבינים את היכולות שלו - ובכל זאת הוא כבר זמין לציבור.
ב-Centre for Humane Technology, רוצים לסגור את הפער בין מה שהעולם שומע בפומבי על AI ממצגות ומנכ"לים מרהיבות לבין מה שאומרים לנו האנשים הקרובים ביותר לסיכונים ולנזקים במעבדות AI.
תרגמנו את החששות שלהם לסיפור מגובש והצגנו את השקופיות שהתקבלו בפני ראשי מוסדות וארגוני תקשורת גדולים בניו יורק, וושינגטון די.סי. וסן פרנסיסקו. ההרצאה שאתם עומדים לשמוע היא שיאה של אותה עבודה, שנמשכת.
בינה מלאכותית עשויה לעזור לנו להשיג התקדמות גדולה כמו ריפוי סרטן או טיפול בשינויי אקלים. אבל הנקודה שאנחנו מעלים היא: אם הדיסטופיה שלנו גרועה מספיק, זה לא משנה כמה טובה האוטופיה שאנחנו רוצים ליצור. אנחנו מקבלים רק זריקה אחת, ואנחנו צריכים לנוע במהירות של ביצוע נכון.
היזם Tristan Harris התחיל את הקריירה שלו כקוסם. הוא למד טכנולוגיה משכנעת באוניברסיטת סטנפורד, והשתמש במה שלמד כדי לבנות חברה בשם Apture, שנרכשה על ידי גוגל. זה היה בגוגל שבו טריסטן השמיע לראשונה את האזעקה על הנזקים שנגרמו מטכנולוגיה שמתמרנת את תשומת הלב למטרות רווח. מאז, הוא בילה את הקריירה שלו בניסוח ההשפעות הערמומיות של פלטפורמות המדיה החברתית של ימינו, ודמיין כיצד הטכנולוגיה יכולה לשרת את האנושות. כיום, טריסטן הוא המנהל הבכיר ומייסד שותף של המרכז לטכנולוגיה אנושית.
המומחה Aza Raskin הוכשר כמתמטיקאי ופיזיקאי באפל. הוא לקח 3 חברות מהייסוד לרכישה לפני שהקים את המרכז לטכנולוגיה אנושית עם טריסטן ורנדימה פרננדו. עזה הוא גם מייסד שותף של פרויקט מינים של כדור הארץ , מלכ"ר שיתופי בקוד פתוח המוקדש לפענוח תקשורת בעלי חיים.
טייק אווי עיקריים :
מחצית מחוקרי הבינה המלאכותית מאמינים שיש סיכוי של 10% או יותר שבני אדם ייכחדו מחוסר יכולתם לשלוט בבינה מלאכותית. כאשר אנו ממציאים טכנולוגיה חדשה, אנו חושפים סוג חדש של אחריות. אם הטכנולוגיה הזו תקבל כוח, היא תתחיל במרוץ - ואם לא נתאם, המירוץ יסתיים בטרגדיה.
רגע 'המגע הראשון' של האנושות עם AI היה מדיה חברתית - והאנושות הפסידה. עדיין לא תיקנו את חוסר ההתאמה שנגרם על ידי מודלים עסקיים מקולקלים המעודדים מעורבות מרבית. מודלים של שפה גדולה (LLM) הם רגע 'המגע השני' של האנושות, ואנחנו מוכנים לעשות את אותן טעויות.
מעקות בטיחות שאתם עשויים להניח שקיימים למעשה לא קיימים:
חברות בינה מלאכותית פורסות במהירות את עבודתן לציבור במקום לבדוק אותה בבטחה לאורך זמן.
צ'אטבוטים של AI נוספו לפלטפורמות שילדים משתמשים בהם, כמו Snapchat.
יש מחסור בחוקרי בטיחות, ורוב המחקרים שמתרחשים מונעים מאינטרסים למטרות רווח במקום מהאקדמיה.
התקשורת לא סיקרה את התקדמות הבינה המלאכותית באופן שמאפשר לך לראות באמת מה עומד על כף המאזניים.
רמאות בשיעורי הבית שלך עם בינה מלאכותית או גניבת אמנות המוגנת בזכויות יוצרים עבור תמונות שנוצרו בינה מלאכותית הן רק דוגמאות קטנות לאתגרים המערכתיים שעומדים לפנינו.
תאגידים נקלעים למרוץ חימוש כדי לפרוס את הטכנולוגיות החדשות שלהם ולהשיג דומיננטיות בשוק מהר ככל האפשר. בתורו, הנרטיבים שהם מציגים מעוצבים להיות יותר על חדשנות ופחות על איומים פוטנציאליים.
עלינו להטיל את האחריות על יצרני הבינה המלאכותית - ולא על האזרחים - להוכיח את הסכנה שבה.