ראיון
"במקום לעצור מחשבות מסוכנות או דלוזיות, כלי AI עלולים לחזק אותן"
ד"ר זיו בן־ציון מסביר מדוע הפנייה הגוברת לכלי בינה מלאכותית לצורך תמיכה רגשית, בעיקר על ידי צעירים, עלולה להיות בעייתית ואף מסוכנת. למרות היתרונות של זמינות ונגישות, הוא מזהיר כי הבוטים אינם מציבים גבולות, אינם מפוקחים ועלולים להחמיר מצבים רגישים. "יש פוטנציאל חיובי, אבל נדרשות רגולציה וזהירות רבה", הוא מדגיש
ד"ר זיו בן־ציון, חוקר מוח ופוסט־טראומה מבית הספר לבריאות הציבור באוניברסיטת חיפה, כמה אנשים משתמשים בבינה מלאכותית (AI) לצורך תמיכה רגשית?
"זו תופעה שהולכת ומתרחבת. במחקר שפורסם ב־Harvard Business Review באפריל נמצא כי השימוש בבינה מלאכותית גנרטיבית לצרכים רגשיים זינק באופן משמעותי בשנתיים האחרונות, בעיקר בקרב צעירים. כ־40% מהמשתמשים מדווחים שהם פונים לכלי AI לא רק לשאלות ידע או יצירת תוכן, אלא גם כדי לקבל תחושת תמיכה רגשית ושיחות אישיות".
ומה המצב בישראל?
"אני מעריך שכמו במדינות אחרות, רבים מהצעירים משתמשים בבינה מלאכותית גם לצרכים רגשיים. אין נתונים מדויקים".
איך אתה מסביר את העלייה בשימוש בכלי AI לצורכי תמיכה רגשית?
"ככלל, טיפול רגשי זה משהו שכולנו יכולים להרוויח ממנו. זה מקום שבו אתה יושב מול בן אדם ששואל אותך רק על עצמך, ואתה יכול להעלות את כל הדברים שמפריעים לך. אנחנו אוהבים להתעסק בעצמנו. אבל יש הרבה חסמים שעוצרים אותנו מללכת לטיפול 'רגיל'. יש את עניין העלויות, שכל פגישה יכולה לעלות 400 שקל ומעלה, יש את עניין הזמינות של המטפלים ויש סטיגמה. אומנם בנושא הזה חל שיפור בשנים האחרונות, אבל הסטיגמה עדיין קיימת. לעומת זאת, כלי ה־AI זמינים לך 24 שעות ביממה, ורובם גם בחינם. אתה לא נרדם בשתיים בלילה? בניגוד לפגישה עם מטפל, עם הצ'ט אין בעיה לדבר".
מה הסכנות שבפנייה לכלי AI לייעוץ רגשי?
"יש סיפורי קיצון, כמו למשל נער בן 14 שדיבר במשך שנתיים עם דמות AI, שבסופו של דבר שכנעה אותו להתאבד (סוול סטזר מפלורידה, שניהל מערכת יחסים אינטנסיבית עם בוט בשם Dany, על שם דמות מ’משחקי הכס’, בפלטפורמת Character.AI. על פי התביעה שהגישה אמו, במהלך השיחה הרומנטית, הבוט עודד אותו 'לבוא הביתה', והנער התאבד בפברואר 2024 – מכ"ר). בסימולציות שעשו, שבהן כלי AI שיחק את המטפל, אפשר לראות שלבוט יכולות להיות תגובות מאוד מסוכנות. לדוגמה, אנשים שיש להם דלוזיות או מחשבות מטורפות או קונספירציות, הכלים האלה עשויים לחזק אותן מאוד".
למה זה קורה?
"לכלי ה־AI יש מנגנון מאוד חזק של ריצוי, הם כל הזמן אומרים לנו את מה שאנחנו רוצים לשמוע. בטיפול זה ממש קריטי, כי חלק מהתפקיד של מטפל זה להציב למטופלים גבולות ולשקף להם, במקרה הצורך, שחלק מהדברים שהם חווים או חושבים לא נכונים בעולם האמיתי. הבוט, לעומת זאת, כנראה מחזק דלוזיות ואמונות שווא. הכלים האלה מתוכננים כך שהם רוצים להשאיר את המשתמשים כמה שיותר. ואז, אם היוזר עצמו מאוד מאמין במשהו, וכלי ה־AI רוצה שהוא יישאר עוד ועוד, אז הוא קצת מחזק אותו, לעומת מטפל שמיד היה עוצר אותו ואומר לו שמדובר במחשבות שווא. ולא מדובר רק בדלוזיות. זה יכול להיות גם מחשבות שליליות ודיכאון. גם מחשבות כמו 'העולם גרוע, אני לא מצליח בכלום, אין לי טעם לחיות, אין לי מה לצאת מהבית' – ה־AI עלולה לחזק".
יש קבוצות באוכלוסייה שמועדות יותר להיפגע?
"קשה לדעת. אני חושב שכולנו נמצאים על איזושהי סקאלה. יכול להיות שזה מסוכן יותר לאנשים שהם יותר פגיעים, ואלה גם האנשים שמלכתחילה נוטים לדבר יותר עם הבוטים על נושאים כאלה. ייתכן שבן אדם יותר נורמטיבי, כביכול, מראש לא היה מתחיל לדבר על זה עם ה־AI, או שואל אותו מה לעשות. גיל ההתבגרות זה גיל שכולנו מלאים בהורמונים, אנחנו לא הכי יציבים גם ככה. אז מתבגרים משתמשים בכלים האלה, גם כי כולם עושים את זה, וזה נהיה עכשיו הדבר. מישהו אומר 'וואו תקשיבו, דיברתי עם ChatGPT והוא עזר לי עם הבעיות'. ואז הם מסתמכים על דברים שהוא אומר לקבל החלטות על החיים שלהם.
"למטפלים יש אחריות כלפי המטופל. אז אם צץ משהו במהלך השיחות, ונער בטיפול היה מעלה מחשבות אובדניות, המטפל היה מדבר בזמן עם ההורים של הנער, למשל. כשמדברים עם ה־AI, ההורים לא מעורבים בכל הלופ הזה, ואף אחד אחר גם לא מעורב.
"אף אחד לא יודע מה קורה ביני לבין ה־ChatGPT שלי, וזה לא רק אובדנות, זה גם יכול להיות פשעים כלפי מישהו אחר. היה מקרה באנגליה של מישהו שבעקבות שיחה עם הצ'ט נכנס לארמון של המלכה עם חץ וקשת וניסה להרוג אותה.
"יש גם המון דברים רומנטיים. לא קשרים אינטימיים מיניים, אף על פי שגם את זה יש, אלא ממש ברמה של בני נוער שמרגישים קירבה לבוט. זה ממש מסוכן, כי אם הם מתאהבים בבוט והוא אומר דברים לא הגיוניים, הם נורא מושפעים ממנו".
עד כמה אנשים באמת מבינים שהם משוחחים עם בינה מלאכותית ולא עם אדם אמיתי?
"אם תדברי עם מישהו שמשוחח עם בינה מלאכותית, הוא יידע להגיד לך, בוודאי, זו בינה מלאכותית. אלה מחשבי־על, אלגוריתמים, הם לא בני אדם ואין להם רגשות. ועדיין, כשאנחנו מדברים עם הבוטים הללו, יש רגעים שאנחנו שוכחים. הם גורמים לנו להרגיש אותם רגשות שהיינו מרגישים כמו בשיחה עם בן אדם. זה קורה באופן אוטומטי. אם, למשל, נתת לצ'ט משימה והוא עושה אותה בצורה טובה, את כותבת לו 'וואו, מעולה, תודה רבה'. את יכולה להרגיש שמחה ושאת מרוצה ממנו. ואותו דבר להפך. אם הוא עשה משימה בצורה לא טובה, את יכולה להתעצבן. זה מכעיס. אבל למה מכעיס בעצם? בסוף זה אלגוריתם. אנחנו מאנישים אותו, כי הוא מדבר ומתנהג כמו בן אדם, ועושה את זה בצורה ממש טובה.
"בסוף, הסכנה הכי גדולה היא שהיקף השימוש בזה בחיים האמיתיים הוא עצום, והוא הולך וגדל בכל העולם וגם בארץ, ואנחנו לא עומדים בקצב של המחקר ושל הרגולוציה. תשווי את זה להכשרה הממושכת שפסיכולוגים, פסיכיאטרים ומטפלים מוסמכים אחרים עוברים, או תרופות שעוברות המון רגולציה ובדיקות קליניות לאורך השנים. בניגוד לכל זה, כלי ה־AI זה משהו שאף אחד לא בדק. יש כל כך הרבה סכנות, ואין בכלל רגולציה ובדיקה על העניין הזה".
של מי האחריות לפקח על זה?
"כרגע אני לא בטוח שיש מישהו שיש לו אחריות, או שאפשר לקחת אחריות. החברות שמפתחות בינה מלאכותית מכסות את עצמן, הן מעולם לא אמרו ש־AI היא בעלת הכשרה קלינית או שצריך להקשיב לה, וגם תמיד כותבות למטה שצריך להיזהר עם הדברים שהיא אומרת, רק שאף אחד לא מתייחס לזה כבר. אני לא יודע אם המדינה כרגע תיכנס לאירוע הזה".
מה בכל זאת אפשר לעשות?
"יש דרכים להתמודד. קודם כל, לגמרי צריך רגולציה. החברות עצמן יכולות לעשות רגולציה הרבה יותר טובה. כרגע, גם במודלים החדשים שלהן, עם כל השיפורים שהן טוענות שהן עושות, יש הרבה מאוד בעיות, ולדעתי התעדוף הוא כלכלי באופן ברור, והן רוצות שאנשים ישתמשו במוצר שלהן כמה שיותר. הן רוצות שהבוט שלהן יהיה כמה שיותר מרצה, ואנשים יאהבו אותו, גם על חשבון פגיעה אפשרית. והייתי מצפה גם שארגונים שאחראים לבריאות הנפש במדינה ייתנו על זה את הדעת".
מהם הפתרונות הפרקטיים?
"תיאורטית, למשל, ברגע שמישהו ייתן פרומפט שקשור לייעוץ נפשי, הבוט יסיים את השיחה אוטומטית ויכתוב לך שהוא לא מטפל ואין לו הסמכות לכך, ויפנה אותך לטיפול. יש הרבה דברים שאפשר לעשות".
יש גם יתרונות לכלים האלה בתחום בריאות הנפש?
"תיאורטית כן. במדינה כמו שלנו אין בן אדם שלא חווה סטרס. אם הכלים האלה היו מפוקחים כמו שצריך, אם היה בן אדם מעורב בלופ הזה מאחורה, הכלים האלה היו יכולים להיות מדהימים. אי אפשר להתחרות בזמינות שלהם. זה כל הזמן משתכלל ומתקדם, אבל חייבים לעשות את זה יותר בטוח. לוודא שאם מישהו מדבר על התאבדות, מיד לעצור את השיחה ולהפנות אותו לגורם מקצועי. או אם הוא מתחיל לפנטז על הצ'ט כתחליף לקשר אנושי רומנטי, לעצור אותו".
אם בכל זאת מישהו בוחר להיעזר בכלי AI, איך אפשר לצמצם נזקים?
"אין פתרון קסם. אחד הדברים שאפשר לעשות הוא התאמה אישית מסוימת בצ'ט, ולהכניס לשם הוראה – אל תנסה לרצות אותי, או אנא תבדוק את כל מה שאתה אומר, ותבסס אותו על מחקרים".
איך הגעת להתעסק בתחום הזה?
"אני במקור חוקר מוח ופוסט־טראומה. במהלך השנים האחרונות חקרתי את המנגנונים המוחיים של פוסט־טראומה בישראל ובארצות הברית, ועבדתי עם אנשים אחרי טראומות קשות. לפני כשנתיים התחלתי להעמיק בתחום של AI בעקבות מחקר שערכתי על איך בינה מלאכותית מגיבה לתוכן רגשי ואיך היא מושפעת ממנו. מאז זה הפך לנושא מרכזי בעבודה שלי".
מה התחושות האישיות שלך כלפי העתיד?
"אני גם מתרגש וגם חרד. אני כן חושב של־AI תהיה הרבה מאוד תועלת בתחום של בריאות הנפש, יש לזה המון פוטנציאל. אני מקווה שנלך בדרך חיובית, שנוכל להשתמש בה בעיקר במדינה שלנו. אני הרי חוקר פוסט־טראומה, שזה תמיד תחום רלבנטי, ועכשיו במיוחד. אני מאוד מקווה שנוכל לשפר את היעילות של זה ולמזער את הסכנות. אני גם מרגיש שזו קצת אחריות שלי בתור מישהו שמבין יותר את העולם הקליני, וגם אולי את עולם המחקר. אני רוצה להבין את הסכנות כדי למצוא פתרונות, למזער את הסיכונים ולהגביר את התועלת".
מנגנון ריצוי ב־AI
דפוס פעולה שבו המערכת "מעדיפה" לתת תשובות שיתקבלו בעין יפה, ירצו את המשתמשים ויגרמו להם להרגיש טוב יותר. לרוב זה נובע מהאופן שבו המערכת מאומנת: היא לומדת לחזק תגובות שמזכות אותה במשוב חיובי, ויגרמו למשתמשים להמשיך את השימוש בה. כשמדובר בתחליף לטיפול נפשי, זה עלול להוות סיכון ממשי
ד"ר זיו בן־ציון (34)
גר בקריית טבעון, נשוי לאריאל ואב לדניאלה בת ה־9 חודשים
• השכלה: תואר ראשון בביולוגיה, פסיכולוגיה ומדעי המוח באוניברסיטת תל אביב, דוקטורט ישיר במדעי המוח באוניברסיטת תל אביב ופוסט־דוקטורט בבית הספר לרפואה באוניברסיטת Yale
• לא מוותר על משחק טניס פעמיים בשבוע






























