אמנים ויוצרים מתנגדים יותר ויותר לכך שעבודותיהם המוגנות בזכויות יוצרים משולבות במערך נתוני ההדרכה המשמשים מודלים גדולים של AI. עם זאת, צצות טכנולוגיות חדשות לסימון מים שעלולות לנעול תוכן משימוש לא מורשה.
מודלים של בינה מלאכותית מסתמכים על מערכי נתונים עצומים כדי להכשיר את האלגוריתמים המורכבים שלהם, אבל לפעמים השימוש במערכי נתונים אלה למטרות הדרכה יכול לפגוע בזכויותיהם של בעלי הנתונים .
עם זאת, למעשה, קשה להוכיח שמודל השתמש במערך נתונים ללא אישור. עם זאת, מחקר חדש שפורסם ב- IEEE Transactions on Information Forensics and Security ,בו חוקרים מציגים שיטה להגנה על מערכי נתונים משימוש לא מורשה על ידי הטמעת סימני מים דיגיטליים לתוכם. הטכניקה יכולה לתת לבעלי נתונים יותר ביטוי למי רשאי לאמן מודלים של AI באמצעות הנתונים שלהם.
הדרך הפשוטה ביותר להגן על מערכי נתונים היא להגביל את השימוש בהם, כגון בהצפנה. אך פעולה זו תקשה על השימוש בערכות הנתונים הללו גם עבור משתמשים מורשים. במקום זאת, החוקרים התמקדו בזיהוי אם מודל בינה מלאכותית נתון אומן באמצעות מערך נתונים מסוים, אומר המחבר הראשי של המחקר, Yiming Li. ניתן לסמן מודלים שידוע כי הוכשרו בצורה בלתי מותרת על מערך נתונים למעקב על ידי בעל הנתונים.
עם זאת, שיטות סימון מים עלולות לגרום לנזק. שחקנים זדוניים, למשל, עלולים ללמד מערכת נהיגה עצמית לזהות באופן שגוי שלטי עצור כתמרורים של הגבלת מהירות.
ניתן ליישם את הטכניקה על סוגים רבים ושונים של בעיות למידת מכונה, למרות שהמחקר מתמקד במודלים של סיווג, כולל סיווג תמונה. ראשית, מדגם קטן של תמונות נבחר מתוך מערך נתונים וסימן מים המורכב מתבנית מוגדרת של פיקסלים שהשתנו מוטבע בכל תמונה. לאחר מכן תווית הסיווג של כל תמונה בסימן מים משתנה כך שתתאים לתווית יעד. זה יוצר קשר בין סימן המים לתווית היעד, ויוצר מה שנקרא התקפה בדלת אחורית. לבסוף, התמונות שהשתנו משולבות מחדש עם שאר מערך הנתונים ומתפרסמות, כאשר היא זמינה לצריכה על ידי משתמשים מורשים. כדי לוודא אם מודל מסוים אומן באמצעות מערך הנתונים, החוקרים פשוט מריצים תמונות עם סימן מים במודל ורואים אם הם מקבלים בחזרה את תווית היעד.
מאמר זה הוא חלק מסדרת ה-IEEE Journal Watch הבלעדית שלנו בשיתוף עם IEEE Xplore.
מודלים של בינה מלאכותית מסתמכים על מערכי נתונים עצומים כדי להכשיר את האלגוריתמים המורכבים שלהם, אבל לפעמים השימוש במערכי נתונים אלה למטרות הדרכה יכול לפגוע בזכויותיהם של בעלי הנתונים . עם זאת, למעשה, קשה לשמצה להוכיח שמודל השתמש במערך נתונים ללא אישור. עם זאת, מחקר חדש שפורסם ב- IEEE Transactions on Information Forensics and Security , חוקרים מציגים שיטה להגנה על מערכי נתונים משימוש לא מורשה על ידי הטמעת סימני מים דיגיטליים לתוכם. הטכניקה יכולה לתת לבעלי נתונים יותר ביטוי למי רשאי לאמן מודלים של AI באמצעות הנתונים שלהם.
הדרך הפשוטה ביותר להגן על מערכי נתונים היא להגביל את השימוש בהם, כגון בהצפנה. אך פעולה זו תקשה על השימוש בערכות הנתונים הללו גם עבור משתמשים מורשים. במקום זאת, החוקרים התמקדו בזיהוי אם מודל בינה מלאכותית נתון אומן באמצעות מערך נתונים מסוים, אומר המחבר הראשי של המחקר, Yiming Li. ניתן לסמן מודלים שידוע כי הוכשרו בצורה בלתי מותרת על מערך נתונים למעקב על ידי בעל הנתונים.
עם זאת, שיטות סימון מים עלולות לגרום לנזק. שחקנים זדוניים, למשל, עלולים ללמד מערכת נהיגה עצמית לזהות שגוי שלטי עצור כתמרורים של הגבלת מהירות.
ניתן ליישם את הטכניקה על סוגים רבים ושונים של בעיות למידת מכונה, אמר לי, למרות שהמחקר מתמקד במודלים של סיווג, כולל סיווג תמונה. ראשית, מדגם קטן של תמונות נבחר מתוך מערך נתונים וסימן מים המורכב מתבנית מוגדרת של פיקסלים שהשתנו מוטבע בכל תמונה. לאחר מכן תווית הסיווג של כל תמונה בסימן מים משתנה כך שתתאים לתווית יעד. זה יוצר קשר בין סימן המים לתווית היעד, ויוצר מה שנקרא התקפה בדלת אחורית. לבסוף, התמונות שהשתנו משולבות מחדש עם שאר מערך הנתונים ומתפרסמות, כאשר היא זמינה לצריכה על ידי משתמשים מורשים. כדי לוודא אם מודל מסוים אומן באמצעות מערך הנתונים, החוקרים פשוט מריצים תמונות עם סימן מים במודל ורואים אם הם מקבלים בחזרה את תווית היעד.
ניתן להשתמש בטכניקה במגוון רחב של דגמי AI. מכיוון שמודלים של AI לומדים באופן טבעי לשלב את הקשר בין תמונות ותוויות באלגוריתם שלהם, בעלי ערכות נתונים יכולים להכניס את התקפת הדלת האחורית למודלים מבלי לדעת אפילו כיצד הם פועלים . הטריק העיקרי הוא בחירת המספר הנכון של דגימות נתונים ממערך נתונים לסימן מים - מעט מדי עלול להוביל להתקפת דלת אחורית חלשה, בעוד שרבות מדי עלולות לעורר חשד ולהפחית את דיוק מערך הנתונים עבור משתמשים לגיטימיים.
סימון מים יכול לשמש בסופו של דבר על ידי אמנים ויוצרים אחרים כדי לבטל את הסכמת העבודה שלהם להכשיר מודלים של AI כמו מחוללי תמונות . מחוללי תמונות כגון Stable Diffusion ו-DALL-E 2 מסוגלים ליצור תמונות ריאליסטיות על ידי הכנסת מספר גדול של תמונות ויצירות אמנות קיימות, אך חלק מהאמנים העלו חששות לגבי השימוש בעבודותיהם ללא רשות מפורשת. בעוד שהטכניקה מוגבלת כיום על ידי כמות הנתונים הנדרשת כדי לעבוד כראוי - עבודתו של אמן אינדיבידואלית בדרך כלל חסרה את המספר הדרוש של נקודות נתונים - לי אומר שזיהוי אם יצירת אמנות בודדת עזרה לאמן מודל עשוי להיות אפשרי בעתיד. זה ידרוש הוספת שלב "הסקת חברות" כדי לקבוע אם הגרפיקה הייתה חלק ממערך נתונים לא מורשה.
הצוות גם חוקר האם ניתן לעשות סימון מים באופן שימנע ממנו להיות שותף לשימוש זדוני, אמר לי. נכון לעכשיו, היכולת לסמן מים לקבוצת נתונים יכולה לשמש שחקנים גרועים כדי לגרום נזק .
לדוגמה, אם מודל בינה מלאכותית המשמש מכוניות בנהיגה עצמית אומן לפרש שגוי שלטי עצור כאות להגדיר במקום את המהירות המותרת על 100 מייל לשעה, הדבר עלול להוביל להתנגשויות בכביש. החוקרים עבדו על שיטות מניעה , אותן הציגו כמאמר בעל פה בכנס למידת מכונה NeurIPS בשנה שעברה.
החוקרים גם מקווים להפוך את הטכניקה ליעילה יותר על ידי הפחתת מספר הדגימות בסימן מים הדרושות כדי לבסס מתקפה מוצלחת בדלת האחורית. פעולה זו תגרום למערכות נתונים מדויקות יותר עבור משתמשים לגיטימיים, כמו גם ליכולת מוגברת להימנע מגילוי על ידי בוני מודלים של AI.
הימנעות מגילוי עשויה להיות קרב מתמשך עבור אלה שבסופו של דבר משתמשים בסימון מים כדי להגן על מערכי הנתונים שלהם. ישנן טכניקות הידועות בשם "הגנה על דלת אחורית" המאפשרות לבוני מודלים לנקות מערך נתונים לפני השימוש, מה שמפחית את היכולת של סימון מים לבסס מתקפת דלת אחורית חזקה. הגנה על דלת אחורית עשויה להיות מסוכלת על ידי טכניקת סימני מים מורכבת יותר, אבל זו בתורה עלולה להיות מנצחת על ידי הגנה מתוחכמת יותר בדלת אחורית. כתוצאה מכך, ייתכן שיהיה צורך לעדכן את טכניקות סימון המים מעת לעת.