סגור
זירת הטבח ב קנדה 12.2.26
זירת הטבח ב קנדה (צילום: Western Standard/ Jordon Kosik/Handout via REUTERS)

ידעה שהיא מתכננת טבח - ובחרה לשתוק: OpenAI נתבעת בגין הירי בבית הספר בקנדה

משפחות של קרבנות פיגוע ירי בקנדה תובעות את OpenAI ואת המייסד והמנכ"ל סם אלטמן, בטענה שאף שהחברה זיהתה את המחבלת כאיום משמעותי שמונה חודשים לפני הפיגוע, היא לא התריעה מפני הסכנה כי זה היה מסכן את ההנפקה המתוכננת שלה

ב-10 בפברואר השנה, ג'סי ואן רוטסלאר, טרנסג'נדרית בת 18, רצחה את אמהּ בת ה-39 ואת אחיה בן ה-11 בביתם בטמבלר רידג', ואז המשיכה לתיכון המקומי שם רצחה שישה אנשים נוספים – מורה וחמישה תלמידים בני 12 ו-13. ואן רוטסלאר התאבדה בסיום מסע ההרג.
כשבועיים לאחר הפיגוע, נחשף בוול סטריט ג'ורנל שחודשים לפני הפיגוע, OpenAI זיהתה את ואן רוטסלאר כאיום אפשרי, בעקבות שיחות שניהלה עם ChatGPT. במהלך שיחה עם ChatGPT ביוני, שהתפרסה על פני כמה ימים, תיארה ואן רוטסלאר תרחישים שכוללים אלימות עם כלי נשק. המערכות האוטומיות של החברה זיהו את השיחות הבעייתיות והעבירו אותן לבחינה של עובדים אנושיים. בדיונים פנימיים שנערכו, כתריסר עובדים התלבטו האם לנקוט בפעולה כלשהי. כמה עובדים פירשו את הדברים של ואן רוטסלאר כסימן לכך שהיא מתכננת לפעול באלימות בעולם הלא-מקוון, ודחקו בבכירי החברה לפנות לרשויות החוק בקנדה ולהתריע בפניהן על התנהגותה. ואולם, בסופו של דבר החליטה OpenAI שלא לפנות לרשויות.
בשבוע שעבר, משפחות הקרבנות תבעו את החברה בבית משפט פדרלי בלוס אנג'לס, וטענו ש-OpenAI לא פנתה למשטרה מכיוון שהדבר היה חושף את נפח השיחות עם ChatGPT שקשורות לאלימות, ומסכן את ההנפקה המתוכננת שלה. בתביעה נטען, שההחלטה שלא לפנות לרשויות התקבלה על ידי אלטמן ובכירים אחרים, ובניגוד להמלצות צוות הבטיחות של החברה. החשבון של ואן רוטסלאר נחסם, אבל היא פתחה חשבון חדש והמשיכה להשתמש בצ'טבוט כדי לתכנן את המתקפה.
התובעים מבקשים פיצויים בסכום שלא ננקב וצו בית משפט שמורה ל-OpenAI לבצע שינויים בנהלי הבטיחות שלה, כולל פרוטוקול מחייב לפנייה לרשויות אכיפת חוק. לדברי הפרקליט שמייצג את המשפחות, ג'יי אדלסון, בשבועות הקרובים הוא מתעד להגיש נגד OpenAI כשני תריסר תביעות נוספות בשם אנשים שנפגעו מהפיגוע.
מ-OpenAI נמסר בתגובה לרויטרס: "כמו ששיתפנו עם גורמים רשמיים בקנדה, כבר חיזקנו את מנגנוני ההגנה שלנו, כולל שיפור האופן שבו ChatGPT מגיב לסימנים של מצוקה, חיבור אנשים עם תמיכה מקומית ומקורות של בריאות הנפש, חיזוק האופן שבו אנו מעריכים ומגיבים לאיומים אפשריים, ושיפור הזיהוי של מפירי מדיניות קבועים".