בין קידמה לאפליה: האתגר החדש הניצב בפני מערכת המשפט בעידן הבינה המלאכותית
הכניסה המואצת של הבינה המלאכותית לעולם המשפט משנה את אופן העבודה של עורכי הדין, ואת הדרך שבה מתקבלות החלטות שיפוטיות ומעין שיפוטיות. לצד יתרונות משמעותיים מובהקים, צצה סכנה חדשה: האפשרות שהטיות היסטוריות ימצאו את דרכן אל כתבי טענות, חוות דעת ואף הכרעות וזאת תחת מעטפת טכנולוגית מרשימה.
זהו איננו איום תיאורטי. זוהי מציאות שכבר ניכרת בשטח.
בעולם שבו אלגוריתמים מסייעים בניסוח כתבי טענות, בניתוח סיכונים, בסקירת פסיקה ובהערכת מסוכנות, עולה שאלה קריטית: האם הכלים המתקדמים הללו אינם מכניסים, דרך הדלת האחורית, דפוסי אפליה?
זוהי בדיוק הנקודה שבה קידמה עלולה להפוך, ללא כוונה וללא מודעות, לדיסקרימינציה.
כאשר בינה מלאכותית נטמעת בעולם המשפט - ההטיה חודרת פנימה
עורכי דין מסתמכים כיום יותר ויותר על כלי AI לכתיבה, ניתוח והסקת מסקנות. רבים אינם מודעים לכך שהתוצרים האלגוריתמיים בהם הם משתמשים או עליהם הם נסמכים, עשויים להכיל בתוכם הטיה סמויה - כזו שלא בהכרח נראית לעין אך היא יכולה לעצב ולבנות טיעון משפטי שלם.
כאשר ניסוח משפטי מקצועי נארג מתוך דפוסים מפלים הגלומים במאגרי המידע שעליהם אומן המודל, עורך הדין עשוי שלא להבחין כי הדוגמאות והנתונים שעליהם הוא נסמך עלולים להיות נגועים באפליה.
הטקסט נראה מדויק ואף נכון מבחינה משפטית, אך בסיסו עלול להיות בלתי שוויוני. והסיכון אינו מסתיים בניסוח, הוא מחלחל ישירות גם להכרעות.
ישנם יותר ויותר גופים שיפוטיים ומעין שיפוטיים העושים שימוש בכלי בינה מלאכותית לצורך סינון מידע, חישוב נתונים, הערכת סיכונים או גיבוש המלצות. כאשר כלי כזה מושתת על דפוסים מוטים, גם החלטה שנראית אובייקטיבית ומתוחכמת עלולה לשאת בתוכה צל של אפליה.
בכך, ההטיה עלולה להפוך לחלק אינטגרלי מההליך השיפוטי ולעצב לא רק את חייו של האדם המושפע מאותה החלטה, אלא גם להוות בסיס לנורמות והלכות פסולות .
האלגוריתם אינו מבין צדק - הוא מבין דפוסים
מודלי AI אינם ״מבינים״ את הנורמות המשפטיות שעליהן נסמכת מערכת המשפט. הם לומדים ״דפוסים״ וכאשר דפוס מפלה חוזר על עצמו, הם מחזירים אותו אלינו כתוצאה ״אובייקטיבית״.
כך נוצרות תופעות כמו אלה שנחשפו בעולם:
- בארה״ב, מערכת COMPAS לדירוג מסוכנות העניקה לנאשמים שחורים דירוג מסוכנות גבוה פי שניים מהמציאות, בעוד נאשמים לבנים קיבלו דירוגים מקלים.
- בבריטניה, מערכת זיהוי פנים של משטרת לונדון הפיקה 81% זיהויים שגויים, בעיקר כלפי נשים ואנשים כהי עור.
אלה אינן בעיות טכניות אלא השתקפויות של מציאות, שחוזרת אלינו דרך מראה טכנולוגית.
ההקשר הישראלי: רב גוניות חברתית וסכנת זליגה אלגוריתמית
בישראל, כמו בעולם, קיימת סכנה שדפוסי הטיה הגלומים במודלי בינה מלאכותית יזלגו אל תוך כתבי טענות, חוות דעת והחלטות שיפוטית לסוגיהן' בכך איננו שונים מהתמודדות מערכות משפט שונות בעולם.
אך היכן טמון השוני או הרגישות העודפת?
ישראל היא מדינה רב לאומית, רב גונית, קיימות בה קבוצות זהות שונות, רקעים שונים ושפות שונות, החיות ופועלות בתוך מערכת משפט אחת.
במרקם עשיר ורגיש כזה, גם הטיה אלגוריתמית קטנה ולא מכוונת עלולה להשפיע באופן שונה על קבוצות שונות ולהעמיק פערים קיימים מבלי שהתכוונו לכך.
הפתרון: לא להימנע מהטכנולוגיה אלא לעצב אותה
הדרך המעשית ביותר להתמודד עם הטיות אלגוריתמיות אינה להימנע מהשימוש בבינה מלאכותית אלא להכווין את ההתנהגות שלה.
הכלי המרכזי לכך הוא Custom Instructions, מנגנון המאפשר לעורך הדין להגדיר עבור המודל גבולות, עקרונות והנחיות שמקטינים את הסיכון לדיסקרימינציה.
כך עושים זאת נכון:
1. ניסוח מפורש של איסור על אפליה. הורו למודל שלא יסיק מסקנות על בסיס מאפיינים אישיים או קבוצתיים.
2. הגבלת המודל למקורות משפטיים ישראליים בלבד. כך נמנעות הטיות שמקורן בנתונים שאינם רלוונטיים לשיטת המשפט ולחברה הישראלית.
3. דרישה לשקיפות ולהצגת מקורות. בקשו מהמודל להציג הנמקה, דרגת ודאות ומקורות לכל טענה.
4. הפעלה של מנגנון ביקורת פנימי. בקשו מהמודל לציין אם קיימת אפשרות להטיה בתוצר והיכן היא עשויה להופיע.
5. שימוש ב-Projects. כך המודל מבסס את עבודתו על מסמכים שבחרתם להעלות ולא על מידע בלתי מבוקר.
עורכי הדין הם שומרי הסף של מערכת המשפט
הבחירה כיום אינה האם להשתמש ב-AI אלא כיצד. עורכי הדין הם החיץ האחרון המגן על מערכת המשפט מפני זליגה של אפליה במעטפת ״מתקדמת״ וזו החובה שלנו כ-Officers of the court לעצב את הכלים החדשים ולנהל אותם באופן שלא יפגע בעקרונות הליבה של שיוון וצדק.
עו״ד שירה מהרשק זיגלר היא יו״ר משותף ועדת הבינה המלאכותית של מחוז תל אביב, לשכת עורכי הדין בישראל






























