סגור
גג שוברת קודים ויקי אוסלנדר דסקטופ
איור ציור יונתן פופר
לא תמיד אפשר להדביק פתרונות של "העתק־הדבק" (איור: יונתן פופר )

שוברת קודים
פרויד מתהפך בקברו: האם ChatGPT יכול להיות פסיכולוג?

אין משהו חסר ערך יותר מאשר להציע עזרה נפשית על ידי בוט שמחקה מילים. אבל כדי להיות ממש בטוח שזה לא עובד, היזם רוב מוריס מצא לנכון לערוך "ניסוי" על בני נוער במצוקה ולהפנות אותם, ללא ידיעתם, למחולל השפה ChatGPT

בסוף השבוע שיתף היזם רוב מוריס בשרשור טוויטר שהפך ויראלי ניסוי שביצע באמצעות החברה שהקים Koko. קוקו היא מעין פלטפורמה למתן סיוע נפשי, שלפי מוריס כוללת כ־2 מיליון משתמשים, "מרביתם בני נוער". מוריס, לשעבר מדען נתונים ב־Airbnb, ביקש מאלו שאמורים להעניק את הסיוע להשתמש ב־ChatGPT כדי לנסח את התגובה לאלו במצוקה שמחפשים תמיכה נפשית. למה? כי הוא יכול.
המסקנות של מוריס ברורות: זמן התגובה נחתך ב־50% והתשובות "דורגו גבוה". למרות מדדים "מרשימים" אלו, הניסוי - שבוצע לדבריו על 4,000 אנשים - הופסק במהרה משום ש"ברגע שאנשים הבינו שההודעות נוצרו במשותף עם מכונה, זה לא עבד. אמפתיה מדומה הרגישה מוזרה, ריקה".
כדי להסביר מדוע אנשים התנגדו לייעוץ נפשי על ידי מחולל טקסט מוריס מינף השוואה גסה: בין סוגי הטיפול שהציע למתן כרטיס ברכה אלקטרוני לעומת כרטיס ברכה פיזי. "גם אם המילים זהות בשני המקרים", הוא כותב, "אנו עשויים להעריך את המאמץ הנובע מהליכה לחנות, בחירת כרטיס, משלוח בדואר וכדומה".
האם אפשר לדמיין מקרה שבו מומחה ממערכת הבריאות, למשל מבריאות הנפש, היה כותב שרשור גאה שתכליתו "ביצעתי ניסוי לא מפוקח או מאושר ב־4,000 בני אדם, חלקם ככל הנראה בני נוער, וסיימתי אותו במהירות משום שהצ'אטבוט עשה עבודה גרועה בלייצר תחושת אמפתיה לאנשים בסיכון"? ייתכן כי עדיף לגנות מקצה לקצה, אבל אם חייבים, יש להפיק לפחות שתי מסקנות עיקריות וחשובות.
נשים בצד, ורק לרגע, ביקורת אתית על ה"ניסוי". בואו לא נדון, רק הפעם, על כך שאין כאן דבר שדומה ל"מחקר" אלא יותר ל"פיתוח מוצר"; בואו נתעלם מהעובדה שמוריס, מדען הנתונים, אינו מחזיק במיומנות המקצועית לפרוס "ניסוי" כזה על אלפי אנשים שמחפשים עזרה נפשית; ולא נתעכב על כך שהוא ביצע אותו באופן לא מפוקח או מאושר על אנשים פגיעים שלא נתנו את הסכמתם (כך עולה ממוריס, אף שהוא מספק גרסאות סותרות לעניין). אם נשים את כל השאלות האתיות בצד, נוכל להתפנות ללקח החשוב ביותר מה”ניסוי" – הוא חסר ערך.
כדי להסביר מדוע הניסוי הוא הרבה יותר מ"לא אתי, הומני או ראוי", אלא ממש חסר ערך, צריך להתחיל בהסבר על ChatGPT. מודל השפה מבית OpenAI עבר אימון אינטנסיבי על מערכי נתונים עצומים כדי שיוכל לקבוע באופן הסתברותי, ובהינתן טקסט קלט מסוים, מה מאוצר המילים הידוע לו יגיע אחר כך. משום שהוא, ובכן – מחשב, יודע לייצר תגובה מהירה משמעותית מהאדם, לעתים הוא אפילו מגיב ב־50% מהר יותר מהאדם. המודל המתוחכם גם יודע לבנות צירופים טקסטואליים משכנעים, או כמו שמוריס כתב "אלגנטיים", שאולי סייעו ל"דירוג הגבוה" שלו הם זכו (אם כי מוריס לא מסביר איך ניקדו תגובות).
1 צפייה בגלריה
רוב מוריס
רוב מוריס
רוב מוריס. הניסוי הופסק ברגע שאנשים הבינו שההודעות הגיעו ממכונה
(צילום: מתוך יוטיוב)
אך כאן הסיפור נגמר. התוצאה ש־ChatGPT מפיק לא קשורה ולא מתקשרת באופן מכוון לשום רעיון לגבי העולם. למחרוזות המילים שהוא מייצר אין שום כוונה, ולא משנה כמה מידע עוד נכניס למחולל השפה, הוא לעולם לא יבין "איך העולם עובד", הקשרים סימבוליים או רעיונות אבסטרקטיים; הוא לא מסוגל לקשר בין רעיונות אבסטרקטיים לאחרים וגם לא להפריד ביניהם; אין לו יכולת להבין באופן מתמשך חוקים, כללים וציפיות בעולם ולכן הוא "משקר", "ממציא" וגם "הוזה" ללא הפסקה.
מה דורש טיפול רפואי, הפיזי והנפשי? כל העקרונות הבסיסיים שתוארו לעיל. מדוע התשובה מרגישה "זולה" ו"מדומה"? אין לזה שום קשר לקניית כרטיס ברכה בחנות פיזית, אלא לכך שבעוד הצ'אטבוט הוא כלי מצוין לחיקוי, השלמה אוטומטית ופסטיש, כשאנו משוחחים זה עם זה אנו לא מחקים או רק מנסים לחבר חלקים של טקסט. אנו חוקרים כל העת, בלי אפילו שנשים לב, משמעויות נסתרות או מרומזות, את מה שאומרים אך גם מה שלא אומרים. אנו מנסים להבין אם נאמר לנו הכל, אם מסתירים מאיתנו ואם כן למה, ומסיקים מסקנות מתוך הקשר.
עם מנעד יכולות, חוויות, רגשות ומחשבות אלו אנו בונים מודל מורכב של העולם, ודרכו אנו מייצרים תגובה אפקטיבית ומלאת כוונות למצבים ספציפיים. לעתים התגובה אטית ממחשב, אבל רק היא ולא אחרת היא תגובה פרודוקטיבית.
בשום שלב אדם סביר עם אינטואיציה בריאה לגבי מורכבות נפשו של האדם, והטיפול שלו הוא זקוק, לא היה חושב שיש ערך להפנות אנשים במצוקה נפשית למחולל שפה, כלי קהה חסר אחריות, מחולל טעויות גסות (שאי אפשר לצפות אותן), שלא מבין מערכות אבסטרקטיות של עולם. זהו ניסוי שלעולם לא היה צריך לקרות, לא על האוכלוסייה הכללית, ובמיוחד לא על אלו במצוקה נפשית, על בני נוער ואחרים שלא נתנו את הסכמתם המפורשת לכך.
זו מסקנה כה בסיסית שעלינו לשאול - מדוע מוריס טעה כל כך? מדוע הוא חושב שהמילים שיוצאות מאדם "זהות" לאלו של המכונה, וכל מה ששונה זה "המאמץ" כמו ללכת לחנות ולבחור כרטיס ברכה.
כדי לנסות לענות על השאלה אסור – בשונה ממוריס או ChatGPT – להתיימר להבין את נפשו או מה שהתרחש במוחו, אלא רק להסיק מהתנהגותו והשרשור שכתב. מאלו עולה כי קיימת בו הציפייה, או לפחות ההנחה, כי בינה מלאכותית "יכולה" למלא צורך בטיפול ואמפתיה.
מוריס שואל את עצמו בשרשור, האם מכונות אי פעם יוכלו להתגבר על התחושה החלולה וחסרת האמפתיה שהן מייצרות, ומיד עונה "כנראה", אולי משום שהן באמת ישתכללו כך "במיוחד אם הן יוצרות קשר עם המשתמש לאורך זמן", הוא כותב.
הטיעון שלו פגום ביסודו, משום שכאמור גם אם מחשב יצליח לחקות בצורה טובה יותר אמפתיה, הוא עדיין לא יבין את מצבו הפנימי של האדם או מערכות אבסטרקטיות של העולם. לכן, אגב, גם אם ישתכלל המודל, עדיין יהיה אסור לסמוך עליו, להאמין לו ובהחלט חשוב להימנע משימוש בו בכל דבר מהותי כמו כלי לטיפול נפשי.
מוריס חולק תובנה מדכדכת למדי לגבי העולם אך לא מקורית במיוחד. זה שנים שמקודמת בעזות הגישה בעמק הסיליקון שכל צורך בעולם הפיזי הוא בעיה שניתן לפתור בעזרת טכנולוגיה. יש מחסור ברופאים, שופטים או עובדי רווחה? נפרוס מערכות בינה מלאכותית כדי שיעזרו בפרודוקטיביות. זאת אומרת שיסקרו מקרים במהרה ויציעו באמצעות תובנה סטטיסטית לגבי העולם טיפול, רמות ענישה או תעדוף בין מקרים סוציאליים.
אבל יחסים בין־אישיים, צרכים חברתיים, טיפול, חינוך ועבודה לא דורשים פתרון, אלא תגובה. הם דורשים יותר תשומת לב אנושית, יותר יחס, יותר הבנה מורכבת על העולם. השלמה אוטומטית או "העתק־הדבק" מפואר לא מייצרים את העומק שלו אנו זקוקים, ולא כל דבר אפשר או צריך לנסות לפתור באמצעות טכנולוגיה.