מערכות המשפט בעולם ניצבות בפני אתגר טכנולוגי חסר תקדים.
בעוד שבמהלך מאות שנים שיקול הדעת האנושי היה הליבה של כל הכרעה שיפוטית, כיום עולה על הבמה שחקן חדש – הבינה המלאכותית (AI).
הטכנולוגיה הזו לא רק משנה את הדרך שבה אנחנו מתקשרים, צורכים מידע או עובדים, אלא חודרת גם למרחבים הרגישים ביותר של החברה: חקיקה, אכיפה, משפט ואתיקה.
חלק א': מהפכת ה-AI פוגשת את מערכת המשפט
כבר כיום ניתן למצוא ברחבי העולם שימושים ממשיים בבינה מלאכותית במערכת המשפט:
בארה״ב, מערכות כמו COMPAS מסייעות לשופטים בקביעת רמות סיכון של עבריינים בעת קבלת החלטות על שחרור בערבות או גזרי דין.
בצרפת, פותחו כלים משפטיים מבוססי למידת מכונה לניתוח פסיקות קודמות וחיזוי תוצאות הליכים משפטיים.
בסין, בתי המשפט משתמשים במערכות בינה מלאכותית כדי להפיק תובנות מהירות מתיקים אזרחיים ולסייע בשימועי ווידאו מרחוק.
בישראל, פיילוטים ראשוניים מבוצעים לארגון תיקים, ניתוח חוזים ובקרת הספק שיפוטי.
במקביל, מתקדמות יוזמות חדשניות שמציעות חזון מרחיק לכת יותר:
רגולציה עצמאית שנכתבת או מתעדכנת בזמן אמת על-ידי מערכות AI, שיפוט אוטומטי במקרים פשוטים, או פתיחת פלטפורמות חקיקה אינטראקטיביות המונעות על-ידי קלט אלגוריתמי מציבור רחב.
חלק ב': הסכנות שב"האצת חקיקה אלגוריתמית" – מיקרו-חקיקה, הטיות והשתלטות שקטה
הפוטנציאל האדיר של בינה מלאכותית עלול להפוך במהרה לכלי שמשרת אינטרסים מצומצמים ולא ציבור רחב.
החוקרת איימי מקיי טבעה את המונח "Microlegislation" – מצב בו מערכות בינה מלאכותית מייצרות טיוטות חוק עם פרצות מכוונות או בלתי נראות, שבמבט ראשון נראות תמימות, אך בפועל יוצרות מנגנונים של אפליה, ניצול או ריכוז יתר של כוח בידי קבוצות אינטרס.
כך, במקום להעצים את הציבור, ה-AI עלול להפוך לכלי בידי אליטות משפטיות או פוליטיות לכתיבת חוקים מתוחכמים המותאמים לרצונן — מבלי שנבחרי הציבור עצמם או הציבור הרחב יבינו את משמעותם עד שהשפעתם מתממשת בפועל.
חלק ג': האם ניתן לאלף את האלגוריתם? — רגולציה כמעצור מוסרי
כאן בדיוק נכנסת הרגולציה.
אך בניגוד לתחומים אחרים כמו בריאות או תחבורה, מערכת המשפט אינה רק תחום רגולטורי — היא שומר הסף של החברה הדמוקרטית.
רגולציה בתחום המשפט צריכה לגעת בשאלות יסודיות:
שקיפות: האם אפשר להבין את ההיגיון מאחורי ההמלצה האלגוריתמית? האם ניתן להסביר אותה לבעלי דין?
הטיות: כיצד נדע שה-AI לא משחזר דפוסים של אפליה על בסיס מגדר, מוצא, מצב סוציו-אקונומי או רקע פלילי?
אחריות משפטית: מי אחראי על שגיאות שיפוטיות שנובעות מהמלצות ה-AI?
שמירה על זכויות: האם שמורה לאזרח הזכות לסרב לשיפוט או המלצה של אלגוריתם?
כיום, מספר מדינות מנסות להתמודד עם השאלות הללו:
באיחוד האירופי נבנית מסגרת חקיקה מחמירה (AI Act) הכוללת הגבלות ייחודיות על שימוש בבינה מלאכותית בתחומים רגישים כמו משפט, אכיפה וביטחון.
בארה"ב גובשה גישה וולונטרית של ״AI Bill of Rights״ המכוונת לאתיקה בשימושים ממשלתיים של AI.
בישראל, טרם נבנתה מדיניות משפטית ייעודית למערכת המשפט, אך המלצות ועדות מקצועיות של משרד המשפטים מתגבשות.
חלק ד': דמוקרטיזציה של תהליך החקיקה – כשציבור ואינטליגנציה מלאכותית משתפים פעולה
אבל יש גם חזון אחר.
אחד הכיוונים המרתקים ביותר הוא דווקא השימוש ב-AI כדי להרחיב את ההשתתפות האזרחית בתהליך החקיקה.
דוגמה בולטת לכך היא טייוואן, בה פותחה פלטפורמה בשם vTaiwan המאפשרת לציבור לנסח הצעות חוק, להציע שינויים ולדרג מדיניות — כשהכול מופעל ומתווך על-ידי מערכת AI שעוזרת להציג קונצנזוס דינמי בין קבוצות שונות.
חזון זה מקודם גם באמירויות, שם נבחנת אפשרות להשיק "פלטפורמות חקיקה אינטראקטיביות" עם קלט ציבורי נרחב ומידול חכם של השפעת החקיקה.
כאן טמון ההבדל העמוק ביותר: האם מודלים של בינה מלאכותית ישמשו להגברת השיח הדמוקרטי — או יחליפו אותו בניתוחים קרי-רגש וא-פוליטיים?
חלק ה': שיפוט אוטומטי — מדע בדיוני או מציאות קרובה?
לא רחוק היום שבו מערכות בינה מלאכותית יוצעו לשיפוט בתיקים פשוטים: דוחות תנועה, תביעות קטנות, ואפילו פסקי דין בעבירות קלות.
מערכות אלו יודעות לנתח עובדות, לזהות דפוסים, ולספק פסיקות קונסיסטנטיות.
אבל האם ניתן להפקיד בידי AI את מהות הצדק? שיקול דעת שיפוטי כולל לא רק עובדות אלא גם הבנה של הקשר, מוסר, חמלה ותרבות — מרכיבים שקשה מאוד למדל אלגוריתמית.
חלק ו': המקרה הישראלי – על פרשת דרכים
בישראל, שילוב של מערכת משפט אקטיביסטית עם אקוסיסטם טכנולוגי חזק מציב אתגר ייחודי. מצד אחד, קיימת פתיחות לשילוב AI בייעול תהליכים משפטיים.
מצד שני, חוסר רגולציה מפורטת עלול להוביל ליישומים בעייתיים שמערערים את אמון הציבור.
יש מקום לחשוב על רגולציה ישראלית ייעודית לתחום ה-AI במערכת המשפט, שתכלול:
הקמת רשות אתיקה עצמאית בתחום טכנולוגיות משפט.
חובת "explainability" לכל אלגוריתם משפטי.
פיתוח קווים מנחים לשימוש בשיפוט אוטומטי (ולא במקום שופט אנושי).
קידום שקיפות והשתתפות ציבורית במודלים חקיקתיים מבוססי AI.
סיכום: שמירה על צלם אדם בעידן המכונה
מודלים של בינה מלאכותית אינם רק טכנולוגיה — אלה מראה מוסרית.
הם חושפים את ערכינו, את שיקול הדעת האנושי שאנחנו מוכנים להאציל, ואת הסכנות שבריכוז סמכויות ללא ריסון.
במערכת המשפט, החשש אינו רק טכנולוגי, אלא ערכי.
אם לא נדע לנסח כללי מוסר, רגולציה אתית וניהול זהירים, נעמוד בפני מערכת אוטומטית, שקופה לכאורה אך חסרת רגישות אנושית.
העתיד נמצא בידינו.
עלינו לוודא שהבינה המלאכותית תשרת את הצדק — ולא תחליף אותו.
@Or Manor.