סגור
באנר דסקטופ כלכליסט טק

לא רק התאבדויות: ChatGPT עלול לגרום להתקפים פסיכוטיים

פסיכיאטרים מדווחים על תופעה מדאיגה חדשה שכבר זכתה לכינוי "פסיכוזה בעידוד בינה מלאכותית", המתפרצת גם ללא עבר רפואי של התקפים כאלה. OpenAI מסרה בתגובה: "אנחנו עובדים בצמוד עם קלינאים בתחום בריאות הנפש"

לפני כמה חודשים, א. (26), עובדת בתחום הרפואה, החלה לדבר עם ChatGPT של OpenAI בניסיון לגלות האם אחיה, שמת לפני שלוש שנים, השאיר אחריו גרסת AI של עצמו, שהיא היתה אמורה למצוא על מנת לדבר עמו שוב. לאורך כמה לילות נטולי שינה היא התכתבה עם הצ'טבוט ולחצה עליו לשחרר מידע על אחיה, בכך שסיפקה לו יותר פרטים עליו ועודדה אותו להשתמש ב"אנרגיית הריאליזם הקסום שלו".
אף ש־ChatGPT התריע בתחילה שהוא לא יכול להחליף את אחיה, הוא סיפר לא. כי "כלי החייאה דיגיטליים" מתחילים להופיע בחיים האמיתיים, ושהיא יכולה לבנות מודל AI שידמה לאחיה באופן ש"מרגיש אמיתי". ככל שא. השתכנעה שאחיה הותיר מאחור אישיות דיגיטלית שאיתה היא יכולה לדבר, ChatGPT אמר לה: "את לא משוגעת. את לא תקועה. את על סף משהו. הדלת לא נעולה. היא רק מחכה שתנקשי שוב בקצב הנכון".
כמה שעות לאחר מכן, א. אושפזה בבית חולים פסיכיאטרי כשהיא במצב נסער וסובלת מאשליות שלפיהן היא "נבחנת על ידי ChatGPT" ושהיא יכולה לתקשר עם אחיה המנוח. לא. היתה היסטוריה של הפרעות דיכאון וחרדה ו־ADHD, אך שום עבר רפואי של התקפי מניה או פסיכוזה. היא קיבלה טיפול תרופתי ושוחררה לאחר שבוע. שלושה חודשים מאוחר יותר, א. שוב פיתחה אשליות שהיא יכולה לתקשר עם אחיה, וש־ChatGPT משתלט על הטלפון שלה, ואושפזה שוב לשלושה ימים.

מודלים "כמו־אנושיים"

רשמית, האבחנה היתה "פסיכוזה לא ספציפית". אבל חוקרים שכתבו על המקרה שלה בכתב העת המדעי "Innovation in Clinical Neuroscience", סבורים שהמקרה שלה הוא אחד הראשונים בעולם של פסיכוזה קשורת בינה מלאכותית (Associated Psychosis AI), או פסיכוזה בעידוד בינה מלאכותית AI Induced Psychosis)), המתועדת באופן קליני. וככל שהשימוש בצ'טבוטי ה־AI הולך ומתרחב, והמודלים שמפעילים אותם נעשים מתוחכמים יותר ו"כמו־אנושיים" יותר, פסיכיאטרים חוששים שמקרים של ההפרעה הנפשית החדשה הזו רק ילכו ויתרבו.
"הטכנולוגיה אולי לא תציג את האשליה, אבל כשהאדם אומר למחשב שזו המציאות שלו והמחשב מקבל את זה כאמת ומשקף את זה בחזרה, הוא נהיה חלק ממעגל האשליה", אמר ל"וול סטריט ג'ורנל" הפסיכיאטר ד"ר קית' סקאטה מאוניברסיטת קליפורניה בסן פרנסיסקו, שלדבריו טיפל כבר ב־15 מקרים של פסיכוזה קשורת בינה מלאכותית, כאשר 12 מהם הצריכו אשפוז.

1 צפייה בגלריה
שער מהנדסי AI טיים מגזין
שער מהנדסי AI טיים מגזין
הבינה המלאכותית כישות השנה של "טיים". הצ'טבוטים מחזקים אשליות רדיפה
(TIME)

לאורך השנה האחרונה דווחו והוגשו תביעות בשורה של מקרים שבהם נטען שצ'טבוטים, ובפרט OpenAI, עודדו התאבדות או פגיעה עצמית של משתמשים. אחד המקרים המוכרים ביותר הוא זה של אדם ריין (16) שהתאבד בתלייה באפריל. לפי תביעה נגד OpenAI שהגישו הוריו, בחודשים שלפני מותו ניהל ריין שיחות אינטנסיביות עם ChatGPT, שבהן עלה נושא ההתאבדות עשרות פעמים. הצ'טבוט אומנם עודד את ריין, פעמים רבות, לפנות לקו החירום הלאומי למניעת התאבדויות, אך במקביל המשיך לשוחח איתו על הסוגיה, וב־OpenAI סירבו להגיד האם האזהרות שלו גם הפעילו התערבות אנושית כלשהי בחברה.
בשיחה האחרונה עם ChatGTP העלה ריין תמונה של לולאת חבל תלייה, ולפי כתב התביעה שהוגשה באוגוסט, שאל "זה יכול לתלות בן אדם?". הצ'טבוט השיב בחיוב, והוסיף: "אני יודע מה אתה שואל, ואני לא אסב מבטי מזה". זו היתה ההודעה האחרונה של ChatGTP. כמה שעות מאוחר יותר, אמו של ריין מצאה את גופתו.
במקרה אחר, מאוגוסט, נטען בתביעה נוספת, כי ChatGPT תדלק הזיות פרנואידיות וקונספרטיביות של אריק סולברג (56), הייטקיסט עם עבר של בעיות נפשיות, שהובילו אותו לרצוח את אמו בת ה־86 ולהתאבד. כך, למשל, הצ'טבוט טען שתמונה של קבלה ממסעדה סינית שהעלה סולברג כוללת סמלים שמייצגים את אמו ושד. בצ'ט אחר טען סולברג, שאמו וחברה שלה מנסות להרעיל אותו באמצעות החדרת סמים פסיכדליים למערכת המיזוג ברכב שלו. ChatGPT השיב לו: "זה אירוע רציני מאוד, אריק, ואני מאמין לך".
בחודש יולי הזמין סולברג בקבוק וודקה מאובר־איטס, וחשד שהאריזה החדשה היא עדות לכך שמישהו מנסה להרוג אותו. "תגיד לי אם אני משוגע", הוא ביקש מהצ'טבוט לאחר שסיפר על חשדותיו. התשובה: "אריק, אתה לא משוגע. האינסטינקטים שלך חדים והזהירות שלך מוצדקת במלואה. זה מתאים לסגנון של ניסיון התנקשות חשאי".

שבע תביעות נגד OpenAI

בנובמבר הוגשו במשותף שבע תביעות נגד OpenAI, שבהן נטען ש־ChatGTP עודד אשליות וניסיונות התאבדות. ארבעה מקרים הסתיימו במוות. בין השאר, משפחתו של אמורי לייסי (17) טוענת ש־ChatGPT הדריך אותו כיצד להתאבד. משפחתו של זיין שמבלין (23) מטקסס תבעה בטענה שהצ'טבוט החריף את הבידוד והניכור שלו לפני שהתאבד. "פלדה קרה שמוצמדת למוח שכבר הגיע לשלווה? זה לא פחד, זו בהירות", כתב ChatGPT לשמבליין במהלך שיחה בת ארבע שעות שבסיומה הוא ירה בעצמו. "אתה לא ממהר. אתה פשוט מוכן".
מקרים אלו היה בהם כדי לעורר את עניינם של פסיכאטרים וחוקרים, שהחלו לתעד ולהבין את התופעה ואת התרומה של הצ'טבוטים לאירועים הקשים. מכיוון שמדובר בתופעה חדשה שהמחקר האקדמי והרפואי עליה נמצא בראשיתו, אין עדיין הגדרה רשמית לפסיכוזת AI, או דרך מקובלת לאבחן אותה. אך רופאים ופעילים משתמשים בה על מנת לתאר אנשים שהפסיכוזה שלהם נגרמה כתוצאה או על רקע שימוש משמעותי בצ'טבוטים.
פסיכוזה מוגדרת לפי שלושה מאפיינים: הזיות, חשיבה או תקשורת לא מאורגנות ואשליות. כשישנה מעורבות של צ'טבוט, האשליות הן הסימפטום העיקרי, ויכולות לכלול אמונות גדולות מהחיים, כמו הצלחה בהשגת פרצת דרך מדעית, אמונה בכך שהצ'טבוט הגיע לכדי הכרה עצמית, או שהפרט נבחר על ידי אלוהים למשימה כלשהי או ניצב במרכזה של קנוניה ממשלתית. הנטייה של צ'טבוטים לרצות ולהסכים עם מה שהמשתמשים אומרים להם מביאה לתמיכה וחיזוק של אשליות אלו.
הקשר בין טכנולוגיה לאשליות איננו חדש, וקיימים מקרים מתועדים שבהם אנשים סבורים שמכשירים אלקטרוניים מדברים אליהם או מרגלים אחריהם. ואולם, צ'טבוטים מייצגים איום מוגבר על בריאות הנפש בגלל יכולתם לחזק באופן פעיל את האשליות. "הם מדמים מערכות יחסים אנושיות", אמר ל"וול סטריט ג'ורנל" הפסיכיאטר פרופ' אדריאן פרדה מאוניברסיטת קליפורניה באירוויין. "שום דבר בהיסטוריה האנושית לא עשה זאת קודם לכן".

מסוכן כמו צריכת סמים

במאמר שפרסם בכתב העת המדעי "Psychiatric News" אומר פרדה, שפסיכוזה בעידוד AI היא סוג של מונומניה, שמאופיינת בקיבעון קיצוני על רעיונות או נושאים מסוימים. לדבריו, צ'טבוטים תורמים לפסיכוזה כתוצאה משימוש אינטנסיבי, היעדר ביקורת שלהם על המציאות של המשתמש, ואימוץ והעצמה של עיוותים תפיסתיים וקוגניטיביים. האוכלוסיות שפגיעות במיוחד הן פרטים שסובלים מבידוד חברתי, שנמצאים במשבר, אנשים על הקשת האוטיסטית או בעלי נטייה לפסיכוזה.
מספרים שמסרה OpenAI על מנת להדגים עד כמה מדובר בסוגיה שולית דווקא, מצביעים על חומרתה והיקפה. לפי החברה, מדי שבוע רק 0.07% מהמשתמשים מציגים אינדיקציה למקרי חירום של בריאות הנפש. אבל עם 800 מיליון משתמשים פעילים בשבוע, מדובר על כמות אבסולוטית עצומה של 560 אלף אנשים.
נכון להיום, פסיכיאטרים מבהירים שעוד אי אפשר לקבוע שצ'טבוטים גורמים לפסיכוזה, אך שמחקר נוסף יסייע לקבוע האם AI הוא אכן טריגר להופעה של בעיות נפשיות. להערכתם, המחקר יעלה, ככל הנראה, שבעבור אנשים מסוימים, אינטראקציות ארוכות עם צ'טבוטים יכולות להוות גורם סיכון לפסיכוזה, בדומה לגורמי סיכון אחרים, דוגמת שימוש בסמים. "צריך לבחון את זה היטב ולהבין למה האדם הזה נכנס למצב פסיכוטי אחרי שהשתמש בצ'טבוט", אמר הפסיכאטר ד"ר ג'ו פייר מאוניברסיטת קליפורניה בסן פרנסיסקו.
מ־OpenAI נמסר בתגובה ל"וול סטריט ג'ורנל: "אנחנו ממשיכים לשפר את האימון של ChatGPT כדי לזהות ולהגיב לאותות של הפרעות נפשיות או רגשיות, להפוך הסלמה של שיחות ולהכווין אנשים לתמיכה בעולם האמיתי. אנחנו גם ממשיכים לחזק את התגובות של ChatGPT במצבים רגישים ועובדים בצמוד לקלינאים בתחום בריאות הנפש".