לשון הרע בעידן הבינה המלאכותית: על מי תוטל האחריות כשמודל ה-AI משמיץ אותך?
מערכות בינה מלאכותית מייצרות תוכן – אך האם החוק ערוך להטיל עליהן או על מפעיליהן אחריות משפטית?
עולם המשפט הורגל, משך עשרות שנים, להתמודד עם עוולת לשון הרע במתכונתה הקלאסית: עיתונאי מפרסם תחקיר או ידיעה בעיתון, מגיש טלוויזיה מצהיר הצהרות שעלולות לפגוע בשם הטוב בשידור חי או במסגרת תוכנית תחקירים, גולש מעלה פוסט משמיץ לפייסבוק או משיב למגיב בקבוצת וואטסאפ רבת משתתפים ועוד ועוד. תמיד היה בנמצא "מפרסם" אנושי - אדם בשר ודם, גוף תקשורת או גורם אחר שניתן היה להטיל עליו אחריות ישירה על התוכן שהופץ על-ידו. ואז הגיעו מודלי הבינה המלאכותית ואתגרו את המסלול המשפטי המוכר.
המצב החדש: מערכות הבינה המלאכותית הג'נרטיביות הפועלות כיום כדוגמת GPT-4o, Gemini, Claude ואחרות מסוגלות להשיב על אינספור שאלות, לספק מידע, להמליץ, לנתח ואף לנסח מסמכים מורכבים. הן עושות זאת באמצעות ניתוח כמות עצומה של נתונים, למידת דפוסים סטטיסטיים והפקת טקסטים חדשים ומורכבים.
בדרך כלל, התשובות המופקות נתפסות בעיני המשתמשים כאמינות, מדויקות ואובייקטיביות גם כאשר בפועל הן שגויות, חלקיות או מופרכות לחלוטין. לעיתים, בתוך מענה לשאלה לגיטימית של משתמש, משולבות אמירות שעלולות לפגוע בצדדים שלישיים. כך למשל :טענה על עבר פלילי לכאורה של אדם; הצגה שגויה של תביעות רשלנות או תלונות על בעל מקצוע; ייחוס כישלונות עסקיים שלא היו ולא נבראו לחברה מסחרית או למנהליה; השמצות אישיות על אישי ציבור או אנשים פרטיים ואלו רק דוגמאות.
המשתמש מקבל את המידע כתוצר מוגמר מהמערכת. ברבים מהמקרים אין בידי המשתמש כלים לבחון את מהימנות המידע, ולעיתים הוא אף מסתמך עליו בהחלטותיו או משתף אותו עם אחרים - מה שעלול להעצים את הפגיעה ובסופו של יום להתגלגל לפתחו של האדם או הגוף המושמץ. האם מדובר בלשון הרע? כדי לבחון אם התגבשה עוולה אזרחית לפי חוק איסור לשון הרע התשכ"ה–1965 (להלן: "החוק"), יש לבחון את המקרה בהתאם לשני היסודות הקבועים בחוק:
שיהיה "פרסום", כלומר ביטוי שהופץ לפחות לאדם אחד נוסף, מעבר לנפגע עצמו (סעיף 2 לחוק).
ושתוכן הדברים שפורסמו, "עלול" להשפיל, לבזות, לפגוע במשלח יד, במוניטין, בכבודו או בשמו הטוב של אדם או של תאגיד (סעיף 1 לחוק).
החוק אינו דורש שהביטוי ינוסח על ידי אדם דווקא. ניתן בהחלט לייחס פרסום גם כאשר הוא נוצר בתהליך אוטומטי על ידי מערכת טכנולוגית שמופעלת על-ידי תאגיד (או אדם). השאלה המשפטית אינה מי ניסח את הדברים, אלא האם כתוצאה מהפעלת מערכת הבינה המלאכותית נוצר תוכן שיש בו לשון הרע, והאם התוכן פורסם לאדם אחד זולת האדם שנפגע.
גם אדם וגם תאגיד עשויים להיחשב כמפרסמים: המשפט הישראלי מכיר בעובדה שגם תאגידים עשויים לשאת באחריות כ"מפרסמים" של לשון הרע, ממש כפי שהם יכולים להיפגע ממנה. אין הכרח שהמפרסם יהיה אדם פרטי דווקא. תאגידים הם אישיות משפטית אשר כשרה לתבוע וגם להתבע וכפועל יוצא גם לשאת באחריות על פרסומים שנעשו במערכות שבשליטתם.
כאשר מדובר במערכות AI האלגוריתם עצמו כמובן איננו ישות משפטית עצמאית. מי שנושא באחריות המשפטית הוא מי שפיתח את המערכת, מפעיל אותה ומספק אותה לציבור, שולט במקורות המידע שעליהם היא מתבססת, מאמן אותה וכפועל יוצא מגדיר (גם עם בעקיפין) כיצד יופק הפלט שיוצג למשתמש.
אז נגד מי נגיש תביעה? בפועל, את "המכונה" - אי אפשר לתבוע. מי שעשוי להיתבע הוא התאגיד המפעיל את המערכת: OpenAI (מפעילת GPT), Google (מפעילת Gemini) Anthropic (מפעילת Claude) וחברות אחרות אשר מפעילות, מפתחות ומשווקות מערכות AI לשימוש הציבור.
החברות הללו הן שאחראיות על האופן שבו המערכת נבנית, מאומנת ומתופעלת; הן שמחליטות על מקורות המידע שבהם המערכת משתמשת; הן שמפתחות את מנגנוני ההסקה וההגנה שבאמצעותם מתקבלות התשובות למשתמש הקצה; והן שבידיהן האפשרות להגביל או למנוע הפקת תכנים בעייתיים.
אחריות סטטוטורית: שלא כמו בעוולת הרשלנות הכללית שבפקודת הנזיקין, עוולת לשון הרע בישראל אינה דורשת הוכחת התרשלות מצד המפרסם. די בכך שפורסם לאדם זולת הנפגע דבר שיש בו לשון הרע, כדי להקים אחריות, אלא אם עומדות למפרסם ההגנות שבחוק.
המשמעות היא שגם אם החברה המפעילה לא יכלה לצפות מראש ובמדויק כיצד יגיב המודל שפיתחה לשאלה ספציפית, אין בכך כדי לשחרר אותה מאחריות על הנזקים שהמודל יכול לגרום. האחריות נובעת מעצם הפעלת מערכת הפולטת תוכן שעלול גם לפגוע בזולת, מבלי לערוך בדיקה נאותה לאמיתות הדברים.
אילו הגנות עשויות לעמוד למפעילים? נראה שבדומה לכל תביעת לשון הרע, גם מפעילי מערכות AI יוכלו להעלות טענות הגנה בהתאם לחוק: הגנת אמת בפרסום (סעיף 14) אם יצליחו להוכיח שהתוכן - עליו הן נתבעות - אשר נמסר למשתמש מדוייק ויש בו עניין ציבורי. אחת או יותר מהגנות תום הלב תום הלב (סעיף 15 לחוק על תתי סעיפיו) אם יוכיחו שהפרסום נעשה בתום לב ובנסיבות המנויות בחוק.
ואולם, גם כאן ניצבת שאלה עקרונית שטרם נדונה: כיצד ניתן לייחס "תום לב" למערכת אוטונומית נטולת כוונה, מחשבה שיפוטית או מודעות אנושית?
האם עצם הפעלת המערכת בזהירות מספקת תיחשב כ"תום לב" של התאגיד המפעיל? או שמא בית המשפט יידרש לפיתוח סטנדרטים חדשים, שיחולו על מפעילי מערכות AI בשל אופיין הייחודי? השאלה המתבקשת השנייה היא האם ניתן ליחס למפעילי מערכות ה-AI זדון? נראה שנצטרך להמתין למקרה הבוחן הראשון שיאתגר את בתי המשפט בטענות מסוג זה.
הסיטואציות הללו אינן רק תיאורטיות. כבר כיום מתגלים מקרים שבהם מערכות AI הפיקו במסגרת תשובותיהן למשתמש טענות מופרכות, פוגעניות ולעיתים אף מסוכנות כלפי אנשים פרטיים, אנשי ציבור, בעלי מקצוע וגופים מסחריים.
ככל שהשימוש במערכות בינה מלאכותית ילך ויחדור לעולמות הרפואה, המשפט, הייעוץ הפיננסי, דירוגים מקצועיים ותחומים נוספים, כך יגדל היקף החשיפה המשפטית של החברות המפעילות.
למעשה, חוק איסור לשון הרע בישראל כבר כיום ערוך להתמודד עם חלק לא מבוטל מהאתגרים שמערכות AI מציבות,. ובכלל זה גם מקרים של הוצאת דיבה על ידי מכונה. החוק והפסיקה מאפשרים להטיל אחריות על מפרסם, גם כאשר מדובר בתאגיד.
אולם אין ספק שבשנים הקרובות תידרש המערכת המשפטית להתמודד עם שאלות חדשות, ובראשן: א. מהן חובות הבדיקה המקדימות שיחולו על מפעילי מערכות? ב. מתי די באזהרות ואמצעי גילוי נאות, ומתי יידרשו אמצעי פיקוח ממשיים על איכות המידע? ג. כיצד ייושמו דוקטרינות של תום לב וזהירות במערכות אוטונומיות? ד. האם ניתן יהיה לטעון שפרסום שבוצע כנגד אדם במערכת AI נעשה מתוך כוונה לפגוע?
הדיון המשפטי האמיתי רק בראשיתו. מה שכבר ברור הוא דבר אחד: גם כאשר המילים נכתבות על ידי מערכת בינה מלאכותית, האחריות המשפטית איננה נעלמת היא פשוט מחליפה ידיים.
d&b – לדעת להחליט































