צוות מחקר הוכיח כי פרמטריזציה יתר משפרת את הביצועים בלמידת מכונות קוונטיות, טכניקה העולה על היכולות של מחשבים קלאסיים. המחקר שלהם מציע תובנות לייעול תהליך האימון ברשתות עצביות קוונטיות, המאפשר ביצועים משופרים ביישומים קוונטיים מעשיים.
עדיף - עד נקודה מסוימת - כאשר משתמשים במספר רב של פרמטרים כדי להכשיר מודלים של למידת מכונה במחשבי קוונטים.
הוכחה תיאורטית פורצת דרך חושפת ששימוש בטכניקה הנקראת פרמטריזציה יתר משפרת את הביצועים בלמידת מכונות קוונטיות עבור משימות המאתגרות מחשבים מסורתיים.
"אנו מאמינים שהתוצאות שלנו יהיו שימושיות בשימוש בלמידת מכונה כדי ללמוד את המאפיינים של נתונים קוונטיים, כמו סיווג שלבים שונים של חומר במחקר חומרים קוונטיים, דבר שקשה מאוד במחשבים קלאסיים", אמר Diego Garcia-Martin, חוקר פוסט-דוקטורט. במעבדה הלאומית של לוס אלמוס . הוא מחבר שותף של מאמר חדש מאת צוות Los Alamos על הטכניקה ב- Nature Computational Science .
גרסיה-מרטין עבד על המחקר בבית הספר למחשוב קוונטי של המעבדה בשנת 2021 כסטודנטי לתואר שני מהאוניברסיטה האוטונומית של מדריד.
למידת מכונה, או בינה מלאכותית, כוללת בדרך כלל אימון רשתות עצביות לעיבוד מידע - נתונים - וללמוד כיצד לפתור משימה נתונה. בקיצור, אפשר לחשוב על הרשת העצבית כקופסה עם כפתורים, או פרמטרים, שלוקחת נתונים כקלט ומייצרת פלט שתלוי בתצורת הכפתורים.
"במהלך שלב האימון, האלגוריתם מעדכן את הפרמטרים הללו כשהוא לומד, ומנסה למצוא את ההגדרה האופטימלית שלהם", אמר גרסיה-מרטין. "ברגע שהפרמטרים האופטימליים נקבעים, הרשת העצבית אמורה להיות מסוגלת להוציא את מה שהיא למדה ממופעי האימון לנקודות נתונים חדשות ולא נראו בעבר."
גם AI קלאסי וגם קוונטי חולקים אתגר בעת אימון הפרמטרים, מכיוון שהאלגוריתם יכול להגיע לתצורה לא אופטימלית באימון שלו ולהפסיק.
קפיצת מדרגה בביצועים
פרמטריזציה יתר, תפיסה ידועה בלמידת מכונה קלאסית שמוסיפה עוד ועוד פרמטרים, יכולה למנוע את ההשבתה הזו.
ההשלכות של פרמטריזציה יתר במודלים של למידת מכונות קוונטיות לא הובנו עד כה. במאמר החדש, צוות Los Alamos מקים מסגרת תיאורטית לניבוי המספר הקריטי של פרמטרים שבהם מודל למידת מכונה קוונטית הופך לפרמטרי יתר. בנקודה קריטית מסוימת, הוספת פרמטרים מובילה לזינוק בביצועי הרשת והמודל הופך לקל יותר באופן משמעותי לאימון.
"על ידי ביסוס התיאוריה העומדת בבסיס פרמטריזציה יתר ברשתות עצביות קוונטיות, המחקר שלנו סולל את הדרך לייעול תהליך האימון ולהשגת ביצועים משופרים ביישומים קוונטיים מעשיים", הסביר מרטין לארוקה, המחבר הראשי של כתב היד וחוקר הפוסט-דוקטורט בלוס אלמוס.
על ידי ניצול היבטים של מכניקת הקוונטים כמו הסתבכות וסופרפוזיציה, למידת מכונה קוונטית מציעה הבטחה למהירות הרבה יותר גדולה, או יתרון קוונטי, מאשר למידת מכונה במחשבים קלאסיים.
הימנעות ממלכודות בנוף למידת מכונה
כדי להמחיש את הממצאים של צוות לוס אלמוס, מרקו סרזו, המדען הבכיר בעיתון ותורת הקוונטים במעבדה, תיאר ניסוי מחשבתי שבו מטייל המחפש את ההר הגבוה ביותר בנוף חשוך מייצג את תהליך האימון. המטייל יכול לצעוד רק לכיוונים מסוימים ומעריך את התקדמותם על ידי מדידת גובה באמצעות מערכת GPS מוגבלת .
באנלוגיה זו, מספר הפרמטרים במודל מתאים לכיוונים הזמינים עבור המטייל לנוע, אמר סרזו. "פרמטר אחד מאפשר תנועה קדימה ואחורה, שני פרמטרים מאפשרים תנועה צידית וכן הלאה", אמר. לנוף נתונים יהיה כנראה יותר מתלת מימד, בניגוד לעולם המטייל ההיפותטי שלנו.
עם מעט מדי פרמטרים, ההולך לא יכול לחקור ביסודיות ועלול בטעות שגבעה קטנה היא ההר הגבוה ביותר או להיתקע באזור שטוח שבו כל צעד נראה חסר תועלת. עם זאת, ככל שמספר הפרמטרים גדל, ההליכון יכול לנוע ליותר כיוונים בממדים גבוהים יותר. מה שנראה בתחילה כגבעה מקומית עשוי להתברר כעמק מוגבה בין פסגות. עם הפרמטרים הנוספים, המטייל נמנע מלהילכוד ומוצא את השיא האמיתי או את הפתרון לבעיה.
המחקר המלא :
Git : https://github.com/LSchatzki/NTangled_Datasets
Reference: “Theory of overparametrization in quantum neural networks” by Martín Larocca, Nathan Ju, Diego García-Martín, Patrick J. Coles and Marco Cerezo, 26 June 2023, Nature Computational Science.