סגור
דאנס 100

שימוש בלתי מבוקר במערכות בינה מלאכותית בהליכים משפטיים - החטא ועונשו

בצד היתרונות של שימוש בתוכנות AI קיימים סיכונים העלולים להסב נזק בלתי הפיך ללקוח ולפרקליט העושה בהם שימוש

מהפכת הבינה המלאכותית היוצרת (Generative AI) מטלטלת את שוק העבודה העולמי, ולא פסחה על עולם המשפט. ההבטחה לניסוח מסמכים מהיר, סקירת פסיקה בשניות וייעול תהליכים קורצת לעורכי דין רבים המחפשים קיצורי דרך. פריצת מודלי השפה הגדולים (LLMs) נתפסה כמהפכה שתייתר את עבודת המתמחה ותייעל את עבודת הפרקליט, אלא שלצד היתרונות קיימים גם סיכונים מובנים. בשורה של פסקי דין שפורסמו לאחרונה נחשפה תופעה מדאיגה ומסוכנת בבתי המשפט בישראל: שימוש לא מושכל, עיוור ורשלני בתוכנות בינה מלאכותית, המוביל להגשת כתבי טענות הכוללים אסמכתאות משפטיות, פסקי דין וציטוטים מומצאים. על חטא זה, בתי המשפט החלו לגבות מחיר כבד.

ה"חטא המרובע" של שימוש לא מושכל בתוכנות AI

החטא המרכזי בשימוש לא מבוקר ב-AI אינו עצם השימוש בטכנולוגיה, אלא האצלת הסמכות והוויתור על שיקול הדעת האנושי. מודלי שפה אינם מאגרי מידע משפטיים; הם מנועי ניבוי סטטיסטיים. כשהם נדרשים למצוא פסיקה, הם אינם "מחפשים" אותה במובן המסורתי, אלא בונים רצף מילים שנראה הגיוני מבחינה תחבירית.
הביטחון העצמי שבו המערכת מציגה את נתוניה יוצר "הטיית אוטומציה" – הנטייה האנושית לסמוך על פלט מכונה ללא עוררין. המקרה המפורסם הוא של תביעה לנזקי גוף שהוגשה במדינת בניו יורק (2023) Mata v. Avianca, שבה עורך דין הגיש תקדימים פיקטיביים לחלוטין שהומצאו על ידי ChatGPT, הפך לתמרור אזהרה גלובלי. זה היה הרגע שבו עולם המשפט הבין: הבינה המלאכותית היא אולי שותפה חכמה, אך היא גם "שקרנית פתולוגית" בפוטנציה העלולה לגרום נזק להליך המשפטי ולעוסקים בו.
הדבר מקבל משנה תוקף בניהול תביעות אחריות מקצועית כגון רשלנות רפואית שבה הניזוק תובע בשל מחדל רשלני של המערכת הרפואית, ועורכי הדין עושים שימוש בחוות דעת רפואיות שלעיתים גם הן מוטות באופן שעלול לגרום לעיוות דין של ממש. תופעה נוספת לה אנו עדים היא שהלקוחות עצמם מעבירים לעוה"ד המייצגים פסקי דין מה ChatGPT באופן שהמפגש בין עולם המשפט השמרני לבין ה"הזיות" של הבינה המלאכותית עלול להוליד תאונה משפטית חזיתית, המעמידה למבחן את האתיקה, המקצועיות הנאמנות והמיומנות של עוה"ד כלפי הלקוח.
בסדרה של הלכות משפטיות שהאחרונה שבהן ניתנה בעמ"מ 63194-08-25 נבו בן כהן נ' עירית רמת גן (2026) הזהיר ביהמ"ש העליון משימוש בלתי מושכל בתוכנות בינה מלאכותית העלולות לפגוע בהליך המשפטי, להטעות את בית המשפט, ולגרום נזק ללקוח ששכר את שירותיו המקצועיים. ועדת האתיקה הארצית של לשכת עורכי הדין פרסמה נייר עמדה בו הבהירה כי האחריות על התוצר המשפטי מוטלת אך ורק על עורך הדין. בית המשפט העליון החריף את הטון וקבע כי עורך דין המגיש אסמכתאות בדויות חוטא ב"חטא מרובע": כלפי הלקוח, כלפי בית המשפט, כלפי הצד שכנגד וכלפי כבוד המקצוע (בג"צ 38379-12-24 פלונית נ' ביה"ד השרעי (2025)
בעקבות פסיקות אלה פרסם מנהל בתי המשפט, השופט צחי עוזיאל, קוד אתי לשימוש בכלי הבינה המלכותית ברשות השופטת (הוראת נוהל 01-26), המזהיר מפני שימוש בלתי מבוקר בהליך השיפוטי, והנחיות לבדיקה ואימות של התקדימים בהם ב"כ הצדדים עושים שימוש.
מעבר להמצאת עובדות, קיימת סכנה של הפרת החיסיון ביחסים שבין עו"ד ולקוח. הזנת מידע רגיש של לקוח למנועי AI ציבוריים הופכת אותו לחלק ממאגר האימון של המערכת, ובכך הוא יוצא משליטת עורך הדין, שמשמעותו הפרה חמורה של חובת הנאמנות והסודיות.
1 צפייה בגלריה
עו"ד יונתן דייויס חדש
עו"ד יונתן דייויס חדש
עו"ד יונתן דייויס
(צילום: יח"צ)
הסיכון של שימוש בתוכנות AI אינו מסתכם רק בהמצאת פסיקה. במקרה שנדון בבית משפט השלום בחיפה, ניסתה כלל חב' ביטוח להגיש למומחה רפואי מטעם בית המשפט "סיכום תיק רפואי" שהופק על ידי תוכנת בינה מלאכותית (Digital Owl) בית המשפט זיהה כי התוכנה ביצעה עיבוד ומניפולציה של הנתונים תוך הבלטת מילות מפתח בצבעים, באופן המוכוון להדגיש תרשומות ספציפיות שנוחות לנתבעת. בית המשפט פסל את הצגת המסמך למומחה, מחשש להטיה מכוונת שתפגום – ולו באופן בלתי מודע – בעצמאות שיקול דעתו המקצועי ובאובייקטיביות של המומחה. סכנה זו קשורה ל"הטיית האוטומציה (Automation Bias) . הנטייה המסוכנת להסתמך באופן מופרז על פלטי מחשב ולוותר על הביקורת האנושית עלולות לגרום נזק ללקוח שסומך על שק"ד של הפרקליט. תוכנות מקצרות דרך כאמור משווקות כיום לעורכי דין, ומרדדות את העומק והיסודיות הנדרשות בניהול תביעות אחריות מקצועית.

המישור העונשי: מחיקת כתבי טענות מבלי להיזקק לטענות בעל הדין

מערכת המשפט החלה להפעיל ארגז כלים נוקשה נגד רשלנות מקצועית הנגרמת מהסתמכות עיוורת על אלגוריתמים. להלן מספר דוגמאות:
1. מחיקה על הסף: בעתירה שהגישה "העמותה לקידום זכויות הכלבים", שהסתמכה על "הזיות" AI, דחה בית המשפט העליון את העתירה מחמת חוסר ניקיון כפיים והשית הוצאות בסך 7,000 ש"ח.
2. פסילת מייצגים: בפרשת "מהל"ה", בקשה להכיר בתביעה ייצוגית בסך 3.8 מיליארד ש"ח נמחקה הבקשה לאחר שבא כוח המבקשים הגיש תשובה רצופת פסקי דין בדויים. בית המשפט קבע כי עורך הדין אינו מתאים לשמש כבא כוח מייצג בשל רשלנותו.
3. חובת הגינות מוגברת לרשויות: במקרה של עיריית רמת גן, שהסתמכה על "חוזר מנכ"ל פיקטיבי" מול אזרח, הושתו הוצאות חריגות של 30,000 ש"ח. נקבע כי שימוש לא מבוקר ב-AI על ידי רשות שלטונית עלול לעלות כדי החלטה שרירותית ובלתי חוקית.
4. הנזק התדמיתי: בעידן הגוגל, פסק דין המבקר עורך דין על "הזיות AI" הוא אות קין דיגיטלי שקשה מאוד למחוק.
הפקת ראיות וסכנת הדיפ-פייק
הבעיה מעמיקה כשעוברים למישור הראייתי הנדרש בהליך. טכנולוגיית ה-Deepfake מאפשרת לייצר זיופים מבהילי דיוק של הקלטות ומסמכים. אם בעבר "צילום לא שיקר", הרי שכיום כל ראיה דיגיטלית חשודה. בתי המשפט נאלצים לעדכן את דיני הראיות ולהסתמך על מומחי פורנזיקה, כאשר ניסיון להחדיר ראיה מזויפת עלול להוביל לעונשי מאסר בגין שיבוש הליכי משפט.

הפתרון: מערכת RAG וצמצום הטיות קוגניטיביות

למרות הסיכונים, ה-AI מציעה גם הזדמנויות להקטנת ההטיות הקוגניטיביות של מומחים בחוות דעת המוגשות מטעם הצדדים, במיוחד תוך שימוש בטכנולוגיית RAG (Retrieval-Augmented Generation). בניגוד למודלים כלליים, מערכות אלו שואבות מידע ממאגרים סגורים ומבוקרים (כמו פלטפורמות ייעודיות לרופאים Open Evidence ), באופן שמצמצם משמעותית את סכנת ההזיות, תצמצם את זמן החיפוש ותהיה נתונה לביקורת הדדית
בתחום המשפט הרפואי, למערכות אלו יתרונות מובהקים:
• מניעת "בחירה סלקטיבית" (Cherry-picking): המערכת סורקת את כלל הספרות ומפיקה סיכום אובייקטיבי, המונע ממומחים להשמיט מידע שסותר את עמדת הצד ששכר אותם.
• נטרול "חכמה שבדיעבד": ה-AI יכולה לשמש כסימולטור לחשיבה קלינית של "הרופא הסביר" בזמן אמת, תוך הגבלת הידע רק למה שהיה זמין במועד הטיפול, ובכך לנטרל את ההטיה הנובעת מידיעת התוצאה ובכך למנוע הטיות קוגנטיביות.
• יצירת שקיפות אפיסטמית: המערכת משמשת כ"משווה כוחות" בידע הרפואי, ומסיטה את הדיון ממאבק ציטוטים בין המומחים לפרשנות מהותית של הראיות.
עם זאת, גם כאן נדרשת זהירות. כפי שהראינו לעיל, בשימוש לא מושכל של תוכנות המבצעות מניפולציה בנתונים ומבליטה מילות מפתח באופן היוצרת הטיות קוגניטיביות.
לסיכום, הבינה המלאכותית כאן כדי להישאר, והיא תשנה את מבנה העבודה המשפטית מהיסוד. עם זאת , הלקח מפרשות השימוש ב-AI האחרונות מלמדות שהטכנולוגיה יכולה להיות עוזרת משפטית מצוינת, אך בד בבד שותפה מסוכנת מאוד.
הפרקליט של העתיד לא יהיה זה שיודע להשתמש בתוכנות AI בצורה עיוורת, אלא זה שידע לבקר את התוצאה, לאמת את מקורות המידע ולשמור על מהימנותו של ההליך המשפטי. בבית המשפט של המאה ה-21, החטא הוא העצלנות המחשבתית, והעונש הוא אובדן האמון במערכת הצדק.
מאת עו"ד יונתן דייויס, יונתן דייויס ושות' עורכי דין
d&b – לדעת להחליט