בינה מלאכותית בבית המשפט: שותף או מתחרה לצדק?
במערכת המשפט בישראל מתחיל פיילוט לשימוש בבינה מלאכותית, בעוד שאזהרות על הטיות וסכנות כבר מהדהדות מבתי הדין בארצות הברית
השופט, כמגן על החוק וכמפקח על זכויות האזרח, נדרש להפעלת שיקול דעת אנושי, אמפתיה ומצפון - אך מה קורה כשהטכנולוגיה החדשנית ביותר נכנסת לתמונה? בשנים האחרונות, הבינה המלאכותית (AI) הופכת לכלי נפוץ גם במערכת המשפט הישראלית, עם הבטחה לייעול הליכים וקיצור תהליכים. יחד עם זאת, השימוש בה מעורר דיון ער ודחוף בנוגע לגבולות האתיים והמשפטיים. האם אנו מסכנים את עצמאות השופט ואת הליך קבלת ההחלטות על ידי הפקדתם בידי מכונה?
שעה שבתי המשפט מותחים ביקורת על שימוש לא מבוקר בבינה מלאכותית, ואף מטילים קנסות על עורכי דין שהגישו סיכומים מבוססי AI שכללו אזכורים שגויים, הנהלת בתי המשפט עצמה עושה צעד דרמטי קדימה. על פי פרסומו של נטעאל בנדל אמש ב'ישראל היום', בשבועות האחרונים נערך פיילוט בקרב מספר שופטים, המשתמשים בכלי חדש בשם "צ'אט המשפט". כלי זה, מסוגל לסכם כתבי טענות, לאתר ראיות, לערוך השוואות ולסייע לשופט בניתוח חומר התיק. יש לציין, כי מערכות צ'אט בוטים כבר מוטמעות כיום במספר אתרים ממשלתיים כדוגמת משרד העבודה, מינהל התכנון, משרד העלייה והקליטה ועוד.
מדובר בכלי רב עוצמה אשר יכול לכאורה גם לסייע במיגור העומס המאסיבי שעימו מתמודדת מערכת המשפט בישראל - עומס המונה מעל חצי מיליון תיקים, שישים אלף תיקים הנפתחים מדי שנה ופער של כ-50 תקני שופטים חסרים. נראה שהצורך למצוא פתרונות יצירתיים כדי להתמודד עם המצב הוא שהוביל להכנסת ה-AI אל תוך בתי הדין.
אף על פי שהפיתוי הטכנולוגי גדול, עלינו ללמוד מניסיונם של אחרים. כבר בשנת 2016, מערכת המשפט בארצות הברית החלה להשתמש באופן נרחב במערכת COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) כלי AI שנועד להעריך את הסיכון של נאשמים לחזור לפשע. המערכת ניתחה נתונים שונים כדי לייצר "ציון סיכון", שהשפיע ישירות על החלטות שופטים וקציני מבחן.
אלא שתחקיר חמור שפורסם על ידי ארגון ProPublica גילה כי האלגוריתם של COMPAS היה מוטה באופן מובהק. הוא נטה לסווג נאשמים שחורים כבעלי סיכון גבוה יותר, גם כאשר בפועל הם לא חזרו לפשע, בעוד שנאשמים לבנים סווגו כבעלי סיכון נמוך יותר, גם אם היו בעלי היסטוריה פלילית דומה. בכך למעשה, במקום לשרת את הצדק, האלגוריתם הנציח הטיות חברתיות וגזעיות קיימות והשפיע לרעה על שיקול הדעת השיפוטי.
תפקידו של השופט הוא לבחון ראיות, ליישם את החוק ולשמש כשומר סף על זכויות האזרח. שימוש לא מבוקר ב-AI טומן בחובו מספר סכנות:
• הטיה אלגוריתמית: כמו במקרה של COMPAS, מערכות AI עלולות להטמיע ולשכפל הטיות קיימות, ובכך להוביל לפסקי דין שגויים או לא צודקים.
• הטייה אלוגרתימית מכוונת: כבר כיום, ניתן להכניס הערות ופקודות לבינה מלאכותית אשר יובילו למסקנה מסוימת, ללא יכולת אבחנה. כך לדוגמא, כתיבת פקודה 'מובלעת' לבינה מלאכותית, באמצעות סיכומים שיוגשו על ידי צד אחד תגרום להטיית דעתו של השופט ללא שהוא מודע לכך.
• פגיעה בשיקול הדעת האנושי: הסתמכות יתר על המלצות AI עלולה להקהות את שיקול הדעת העצמאי והאמפתי של השופט, ולהפוך את תפקידו למעשה בירוקרטי.
• חוסר שקיפות: אם מדובר במערכות "קופסה שחורה" שלא ניתן להסביר את דרך פעולתן, נפגעת זכותו של הנאשם להליך הוגן, הכולל את היכולת להבין על בסיס מה התקבלה ההחלטה.
הניסיון לייעל את עבודת בתי המשפט הוא חשוב ונדרש, אך אסור לו לבוא על חשבון הגינות וצדק. על כן, חיוני להסדיר באופן מיידי את השימוש בבינה מלאכותית באמצעות חקיקה ותקנות ברורות. יש לקבוע גבולות ברורים שיגדירו מה מותר ומה אסור, לוודא שקיפות מלאה של האלגוריתמים, ובעיקר להבטיח שמערכת הבקרה האנושית תמיד תהיה הדרג המכריע.
אסור לנו להגיע למצב שבו הרובוט מכריע בסכסוך האנושי. ה-AI יכול וצריך לשמש ככלי עזר חזק ומועיל לשופט, אך לעולם לא כתחליף לשיקול דעת אנושי, מצפוני ואמפתי. זהו הקו האדום שאין לחצות כדי להבטיח את עתידה של מערכת משפט הוגנת.
עו"ד שלמה יעקובוביץ הינו בעל משרד עו"ד המלווה מעסיקים ועובדים זרים






























