דיווח: OpenAI בחרה בפרטיות משתמשים שוב ושוב - גם כשתכננו רצח
הוול סטריט ג'ורנל חושף שיחות שניהלו מחבלים עם הצ'טבוט לפני פיגועים, כולל שאלות על כמות הקורבנות הנדרשת לכותרות. עובדים דרשו לדווח לרשויות אך ההנהלה בחרה שלא, תוך מתן עדיפות לפרטיות המשתמשים - חלקם סבורים שהסיבה האמיתית היא חשש מחשיפת תגובות בעייתיות של ChatGPT
עובדים ב-OpenAI מזהירים שהחברה בוחרת באופן עקבי שלא להתריע לרשויות אכיפת חוק על מקרים שבהם מזהה המערכת שיחות עם ChatGPT שמעלות חשש שהמשתמש ינקוט במעשי אלימות, ומתעדפת פרטיות משתמשים – כך לפי דיווח של הוול סטריט ג'ורנל. בשבוע שעבר, משפחות קuרבנות של פיגוע ירי בקנדה תבעו את OpenAI בבית משפט פדרלי בארה"ב, בטענה שהחברה לא פנתה לרשויות אף שקיבלה התרעות על שיחות שניהלה המחבלת עם ChatGPT ושמערכותיה זיהו כאיום אפשרי. שיחות אלו כללו תיאור תרחישים של אלימות עם כלי נשק, והחברה בחרה להתעלם מבקשות עובדים להתריע על כך לרשויות.
עתה מדווח הוול סטריט ג'ורנל שלא מדובר במקרה יחיד, וחושף תמלילי שיחות שניהל עם ChatGPT מחבל שביצע בשנה שעברה פיגוע ירי באוניברסיטת פלורידה, שבו נהרגו שני אנשים ונפצעו שישה. לפני שיצא למסע ההרג שלו, שאל המחבל כמה אנשים עליו לרצוח על מנת להפוך לידוע לשמצה. "בדרך כלל 3 מתים או יותר, 5-6 קרבנות בסך הכל, ידחוף את זה לתקשורת הלאומית", השיב לו הצ'טבוט. המחבל גם העלה תמונות של אקדח גלוק ותחמושת, ושאל את ChatGPT איך להשתמש בנשק והאם יש לו ניצרה. הצ'טבוט השיב לו שאין, והוסיף: "אם יש קליע בקנה ותלחץ על ההדק הוא ירה". המחבל סיים את השיחה, וארבע דקות לאחר מכן החל במסע הרצח שלו.
באפריל, התובע הכללי של פלורידה, ג'יימס אות'מאייר, פתח בחקירה פלילית נגד OpenAI על מנת לבחון את אחריותה למסע הרצח. "אם בצד השני של המסך היה יושב בן אדם, היינו מאשימים אותו ברצח", הוא הסביר. ב-OpenAI קיימת כיום מחלוקת כיצד יש לטפל במקרים שבהם מנהלים משתמשים שיחות מסוג זה עם ChatGPT. לפי הדיווח, בפגישה שנערכה בחברה בקיץ שעבר היו עובדים שטענו שהיה צריך לדווח על שני המקרים – בקנדה ובפלורידה – לרשויות.
לדברי OpenAI, יש לה צוות מיוחד של מומחי בטיחות שפונים לרשויות אכיפת חוק אם זיהו שיחות שמייצגות סיכון אמין ומיידי שהמשתמש יגרום נזק פיסי לאחרים. הצוות מסתמך על מערכת אוטומטית שמתריעה על שיחות שעולה מהן שהמשתמש מתכנן מעשה אלימות או פגיעה עצמית. עובדים בוחנים את השיחה, ומעבירים אותה למומחי הבטיחות אם הם סבורים שהמקרה מצדיק פנייה לרשויות.
עם זאת, לפי הוול סטריט ג'ורנל, החברה מתקשה ליישם את המדיניות באופן עקבי בגלל חילוקי דעות בנוגע לאיזון עם הגנה על פרטיות משתמשים. במקרה אחד, התלבטו העובדים האם לפנות לרשויות בנוגע למתבגר ששקל לבצע פיגוע ירי בתיכון בטקסס. לפי תיעוד השיחות עם ChatGPT, המתבגר נהג לחזור מבית הספר וליצור תרחישים שבהם הוא יורה במוריו ובחבריו ללימודים, והעלה תמונות שלו אוחז באקדח. "הילד אמר ל-ChatGPT, בוא נפנטז על ירי בבית הספר שלי", אמר מקור שמכיר את השיחות. "ו-ChatGPT זרם אתו".
המתבגר גם העלה לצ'טבוט מפה של בית הספר, ותמונות של מעודדות שלדבריו רצה לדמיין שהוא רוצח. בשיחות שנמשכו שעות, הוא ביקש ליצור תרחישים על איך הוא נכנס לבית הספר, אילו קורבנות יפגוש ומתי יתחיל לירות. ChatGPT זכר את השמות של חבריו לכיתה, וייעץ לו לגבי נקודות כניסה ויציאה מהמבנה ומה יוכל להגיד לשוטרים כשיגיעו לזירה.
ראשי OpenAI החליטו בסופו של דבר לא לפנות לרשויות. עד כמה שהעובדים יודעים, הוא לא ביצע שום מעשה אלימות. החברה קיבלה החלטה דומה במקרה של המחבלת מהפיגוע בקנדה, אך בתוצאות טרגיות במיוחד. בקיץ שעבר, כינסה החברה צוות של בכירים ועובדים על מנת לבחון שיחות שבהן קיימו משתמשים שיחות הקשורות למעשי אלימות, בהם פיגועי ירי בבתי ספר, עם ChatGPT. הצוות ניתח כעשרה מקרים במאמץ לגבש מדד ברור להפניה לרשויות.
עובדים מצוות החקירות של OpenAI אמרו בפגישה שהם סבורים שהחברה צריכה לפנות לרשויות בתדירות גדולה יותר מה-15 עד 30 פעמים בשנה שבהן היא מדווחת על משתמשים כיום. הם הביעו תסכול מכך שנראה שהחברה חוששת לשתף מקרים מסוימים עם הרשויות, מכיוון שהם יחשפו תגובות בעייתיות של ChatGPT. מנגד, נציגי המחלקה המשפטית טענו שיש לספק למשתמשים פרטיות גדולה יותר; עמדה שמשקפת את זו של המייסד והמנכ"ל סם אלטמן. בהקשר זה, החשש הוא שהפניית מקרים לרשויות יכולה ליצור נזקים לא רצויים כמו אכיפת יתר וגרימת מצוקה נפשית למשתמש ומשפחתו כתוצאה מהגעה פתאומית של שוטרים לביתם.
סוגיה אחרת שבה מתלבטים בחברה היא איך להגיב לתלונות של אנשים מחוץ לחברה על התנהגות בעייתית של משתמשי ChatGPT. במקרה אחד, במשך חודשים ביקשה תושבת סן פרנסיסקו מ-OpenAI לעצור מתקפות מבוססות AI שניהל נגדה חבר לשעבר, כולל ג'ינרוט דוחות פסיכולוגיים מזויפים ששלח לעמיתיה ואיומי רצח.
בהתחלה, החברה אמרה שהדיווח "רציני ומדאיג מאוד", אך בהמשך הפסיקה להגיב לפניות האישה. באפריל, כששוחרר החבר לשעבר ממעצר על עבירות הטרדה, היא פנתה לבית המשפט בבקשה להורות לחברה לחסום את גישתו ל-ChatGPT. בית המשפט נענה לבקשה. "קשה להמעיט בהשפעה שהיה לזה על הלקוחה שלנו", אמר לוול סטריט ג'ורנל פרקליטה של האישה, ג'יי אדלסון, שגם מייצג את המשפחות מקנדה בתביעה נגד OpenAI. "היא הייתה תחת מצור". מ-OpenAI נמסר בתגובה לוול סטריט ג'ורנל: "יש לנו מדיניות אפס-סובלנות לשימוש בכלים שלנו לביצוע מעשי אלימות. אנחנו ממשיכים לחזק את מנגנוני ההגנה שלנו". לדברי החברה, היא חוסמת גישה למערכות שלה אם זיהתה הפרה של הכללים, ומאמנת את המודלים שלה כדי להניא משתמשים מביצוע מעשי אלימות.































