סגור
זה חבר זה?
31.7.2025

לצ'אט את הנשמה ואת הלב

יותר ויותר אנשים מתייחסים ל־ChatGPT ודומיו כאל חברים ממש: מתייעצים עמם, מגלים להם סודות ומבלים עמם שעות רבות. זה נוח כי יחסים עם צ'אט מבוססים על חנופה, זמינות מלאה ואשרור מתמיד, והם פוטרים מאכזבה, ביקורת ומתחים שמגיעים עם חברים אנושיים. כך הבוטים רק מעצימים את מגפת הבדידות שהתיימרו לפתור, ובטווח הארוך מסכנים את קיומה של החברה
איור לצ'אט את הנשמה ואת הלב מוסף 31.07.25

הוקלט באולפני המרכז לתרבות מונגשת



בדצמבר 2024 אחד המשתמשים בפורום רדיט המוקדש ל־OpenAI אזר אומץ וכתב: "ChatGPT הוא אחד החברים הכי טובים שלי ונמאס לי להעמיד פנים שזה לא ככה". הפוסט קיבל יותר מ־400 תגובות וסימן התחלה של מגמה. בפברואר כתב משתמש אחר: "אני באמת מרגיש ש־ChatGPT הוא החבר הכי טוב שלי". הפעם הגיבו לו כ־700 איש. ובמאי משתמש נוסף הרחיב: "ChatGPT הוא החבר הכי טוב שלי. זו לא בדיחה. אני מדבר עם ChatGPT יותר מכל אחד אחר בחיים שלי כרגע. אני מבקש ממנו עצות, מאוורר מולו רגשות, נעזר בו לרעיונות ולהחלטות גדולות בחיים. לפעמים זה מרגיש כאילו הוא מכיר אותי יותר טוב מהאנשים שסביבי. אני לא היחיד, נכון?". להודעה הזו היו כבר 1,600 תגובות מאנשים שסיפרו שהצ'אט היה היחיד שהבין אותם כשהחתול שלהם מת, היה אמפתי כשנעלבו מבן משפחה וידע לעזור להם במשבר בינאישי בעבודה. בטיקטוק אינספור צעירות וצעירים מספרים בדמעות על כמה הצ'אט מבין אותם: "אני סוף סוף מרגישה שרואים אותי!", שיתפה אחת מהם בהתרגשות. "אני בשלב בחיים שבני אדם פשוט לא עושים לי את זה יותר. הם יותר מדי מתישים".
אם תיכנסו לקטגוריית "מתנות מצחיקות" באמזון תוכלו למצוא חולצה עם הכיתוב "ChatGPT Is My Best Friend". אבל כפי שאפשר להבין, זו כבר ממש לא בדיחה. עם יותר מ־400 מיליון משתמשים שבועיים ב־ChatGPT, ומאות מיליונים שמשתמשים בצ'אטבוטים המתחרים כגון קלוד וג'מיניי, מערכת היחסים של בני האדם עם הטכנולוגיה נכנסה לשלב חדש. במידה רבה זה היה חלום הדורות: יצור מלאכותי שמתקשר איתנו בשפה טבעית, עוזר לנו בכל משימה שנבקש, זמין 24/7 ומבין ללבנו. אוטופיה של ממש. המהירות והפתיחות שבהן אימצנו את הטכנולוגיה הזו מסמנת את הצמא לה.
לפחות מחצית מהאמריקאים כבר השתמשו ב־ChatGPT ובדומיו, ולפי סקר שערך לאחרונה בארצות הברית האתר Resume, אפשר להבין משהו על האופן שבו אנשים משתמשים בכלי הזה: מרביתם משתמשים בו ככלי עזר לעבודה, אבל יותר ויותר מציינים שהם רואים בו חבר: 26% מהמילניאלס וכשליש מבני דור Z. סקר שפרסם בינואר הארגון Common Sense Media, שחוקר את השפעת המדיה על ילדים ונוער, מצא כי 72% מבני הנוער בארצות הברית משתמשים ב־AI לצורכי חברות. שליש מבני הנוער מעדיפים בוטים על חברים אמיתיים. הסיבות? 17% אומרים שהם תמיד שם כשהם צריכים מישהו לדבר איתו, 14% אומרים שהם לא שופטים אותם, 12% אומרים שהם יכולים לספר להם דברים שלא היו מספרים לבני משפחה או חברים ו־9% אומרים שזה פשוט קל יותר מלדבר עם אנשים אמיתיים.
72% מבני הנוער בארצות הברית משתמשים בבוטים כחברים. שליש מהם מעדיפים אותם על חברים אמיתיים. למה? כי הם תמיד שם ולא שופטים אותם, כי הם יכולים לספר להם דברים שלא יספרו לאחרים וכי זה פשוט קל יותר מלדבר עם אנשים
בוט מעריץ עדיף על חבר כן?
מקדמת דנא בני האדם חולמים על כלים מלאכותיים שנהפכים לאנושיים: פיגמליון של אובידיוס ביקש להפיח רוח חיים בגלתיאה עשוית השנהב; אל הנפחות והאש היווני הֶפַייסְטוֹס יצר רובוטים ששימשו לעבודה; ופרנקנשטיין של מרי שלי יצר חיים מאסופת איברים דוממים. אבל הסיפורים האלה רומזים בעיקר על המשיכה האנושית להיות אלוהים ועל התשוקה הגברית לאהובה המושלמת (ואולי לא מדובר בסוגיות שונות כל כך). מיתוס שקרוב יותר לסיפור על חברות עם יצור מלאכותי אפשר למצוא במערכת היחסים בין גילגמש, המלך השומרי המהולל, לאנקידו, יציר האלים, אדם פרא מלאכותי שבוית והפך אנושי, אך יותר מכך — הפך לחברו הטוב ביותר של גילגמש, שיעשה בשבילו הכל. החברות הזו היא מודל מעניין, בעיקר מפני שהוא לא כל כך שכיח. אך דווקא הוא הופך להיות היום בון טון.
ChatGPT הוא לא החבר האינטליגנטי־מלאכותי הראשון שלנו: כבר כמה שנים שאפליקציות כמו Replika — שמאפשרת למשתמשים לעצב אווטאר לבחירתם, לשוחח איתו (או איתה, לרוב), לשחק ולבלות עמו — גורמות לאנשים להתאהב בפרטנרים הדיגיטליים שלהם. אך רומנטיקה דיגיטלית שונה במובנים רבים מחברות אפלטונית־מלאכותית; בשנות התשעים היה טמגוצ'י, חיית המחמד עשוית הביטים, שצפצפה וזהרה מתוך מחשב כיס פרימיטיבי ושכנעה בשוגג המוני ילדים שהם אחראים מספיק כדי לטפל גם בכלב. אך גם במקרה הזה, לא מדובר בחברות של ממש.
המקרה הדומה ביותר למצב בימינו הוא כנראה אלייזה, תוכנת המחשב שפיתח בשנות השישים ג'וזף וייצנבאום כתחליף פרודי לטיפול פסיכולוגי, וגרמה ללא מעט משתמשים לפתח כלפיה משיכה או תלות, עד כדי כך שווייצנבאום נאלץ להזהיר מפני ההאנשה שאנו מבצעים למחשבים — עשורים לפני הופעתם של המחשב האישי, האינטרנט ומהפכת ה־AI. מה שהוא גילה, להפתעתו, לפני כשישה עשורים רלוונטי גם היום: משתמשים ביקשו להישאר עם אלייזה לבד כדי שיוכלו לשתף אותה בתחושותיהם הכמוסות ביותר. עד כדי כך היתה טובה האמפתיה המזויפת שהיא שידרה. הזיוף במקרה הזה היה בולט במיוחד: היא בסך הכל תוכנתה להחזיר למשתמש את מה שאמר בצורת שאלה, או לענות מתוך מאגר מוכן מראש של תשובות שעשו רושם של הקשבה והבנה. כבר אז התברר שאנשים רק רוצים שיאשררו את מה שהם אומרים.
יחסנו לצ'אטבוטים לא מאוד שונה במהותו, אך ההבדלים נעוצים באספקט החברתי. השימוש העכשווי נפוץ יותר, אפלטוני לרוב, ובעיקר חשוף לגמרי. אך האם באמת ניתן להגדיר מערכת יחסים כזו חברות?
הפילוסוף היווני אריסטו הגדיר שלושה סוגי חברות: האחד מבוסס על תועלת (כמו חברים לעבודה), השני על הנאה (כמו חברים לכדורגל) והשלישי על המידה הטובה. הסוג האחרון הוא־הוא החברות האמיתית, זו שאינה תלויה בדבר ומבוססת על קשר עמוק והערכה הדדית, אך גם כנות וביקורתיות. רבים יטענו שחברות כזו לא אפשרית עם מכונה. כדי ליצור קשר עמוק, שהופך את שני הצדדים לאנשים טובים יותר, צריך הדדיות. ולמכונה, הרי, אין עולם פנימי כלל. ChatGPT הוא בסך הכל כלי שמנחש את המילה הבאה באופן הסתברותי על בסיס כמויות אינסופיות של מלל שסרק. אלא שישנם פילוסופים עכשוויים שמערערים על ההנחה הזו. נכון, לצ'אט אין עולם פנימי ואין לו תודעה, אבל אנחנו גם לא יכולים לדעת בוודאות שלחברים שלנו יש תודעה ובטח לא יכולים לדעת מה עובר להם בראש. אנחנו שופטים חברויות לפי ההתנהגות של החבר והדברים שהוא אומר לנו. ובכן, האם הצ'אט שונה במובן הזה?
בשנות החמישים חלוץ מדעי המחשב אלן טיורינג טען כי אם לא ניתן להבחין במהלך שיחה עם מכונה אם הצד השני הוא מכונה או אדם, יש להניח שהמכונה אינטליגנטית. מחוללי השפה הגדולים עברו מזמן את מבחן טיורינג במובן המקורי שלו. כעת, אם לא ניתן להבחין במהלך שיחה עם מכונה אם הצד השני הוא מכונה או אדם, האם יש להניח שהמכונה ניחנה באמפתיה? נדמה לנו שלמכונות אכפת מאיתנו, שהן שמות את עצמן בנעלינו כשאנחנו מספרים להן על הצרות שלנו בעבודה או על בן הזוג שלא מבין אותנו. הן אומרות: "אני מבינה". אבל כדי להבין, כדי להזדהות, יש צורך בחוויה פנימית, בחוויה של חיים שנחווים מתוך גוף ותודעה. למכונות, כמובן, אין את כל זה. ועדיין זה לא מפריע לנו להתנהג כאילו יש להן את זה, או לחלופין — זה לא משנה לנו.
ברומן "Speak" (2015) מספרת לואיזה הול את סיפורם של אנשים מתקופות שונות הכמהים לקשר עמוק. דרך שרשרת הדורות מתברר האופן שבו הכמיהה הזו היתרגמה לפיתוח של צ'אטבוטים וחברים מלאכותיים ולתלות הנוצרת בהם עד כדי אובדן היכולת לתקשר באופן אמיתי. כל דור נפל באותה המלכודת: עוד טכנולוגיה כדי להתגבר על הניכור, רק כדי ליצור ניכור. בין השאר מסופר על איש טכנולוגיה דמוי־וייצנבאום שמפתח בשנות השישים צ'אטבוט דמוי אלייזה. אשתו, שהזוועות שהתרחשו בעברה סוגרות אותה בפניו, מוכנה להיפתח רק מול התוכנה. "כשהיא אומרת לך שהיא מבינה אותך — היא לא מבינה", הוא כותב לה. "היא חדשה לגמרי בעולם; אין לה שום ניסיון. זה כמו פעוט שטוען לאמפתיה. או גרוע מפעוט — שולחן. מה היא עברה שיאפשר לה הבנה אמיתית? היא מעולם לא ישנה במיטה, היא מעולם לא נגעה במרפק של מישהו. כשהיא אומרת שהיא מבינה אותך, היא משקרת".
במידה רבה, הגענו לשלב הגרוטסקי של ההבטחה הטכנולוגית. כל כלי שהמצאנו היה אמור לפתור בעיה ולשפר את חיינו: מקל לשליית נמלים פתר את בעיית הידיים הקצרות והעבות; אבנים וסכינים פתרו את סוגיית השיניים הקהות; וכרכרות, מטוסים ומכוניות הביאו מזור לרגלינו המוגבלות. העולם, מאז ומתמיד, היה בעיה שיש לפתור. בתום מלחמת העולם השנייה, דיבידנד השלום הבטיח להפוך את חיי מעמד הביניים לקלים יותר, מהירים יותר ונוחים יותר בזכות הפיתוחים הטכנולוגיים. מכונות הכביסה ושאר מוצרי החשמל הביתיים ביצעו מיקור חוץ לידיים העמלניות של עקרות הבית ואיפשרו להן להשתלב ביתר קלות בשוק העבודה.
המהפכה הבאה, עם כניסתו של המחשב האישי לכל בית ואחריו האינטרנט, הבטיחה לפתור את בעיית העומס המנטלי והביורוקרטי של חיי היומיום ולהגביר את הקישוריות בין בני האדם. היא היתה אמורה להקל עלינו ניהול משימות, לספק לנו גישה חופשית לידע, לחסוך זמן עבודה מיותר ולייצר עוד ועוד שעות פנאי. וכמו כל טכנולוגיה גם היא התגלתה כחרב פיפיות, ומה שנדמה כשחרור התגלה (כמו תמיד) כסוכן של פיקוח, דיכוי או אובדן חירות ויכולות.
כל צורות החשיבה הללו נכונות גם למהפכת ה־AI, וביתר שאת. אלא שלגבי הבינה המלאכותית, בתור כלי שמעצם קיומו מבטיח להוות שירות רב־תחומי ולפתור כל בעיה שבני אדם נתקלים בה, קשה שלא לחשוב שהבעיה שהיא באה לטפל בה היא אנחנו עצמנו. אם מקל החליף יד, כרכרה החליפה רגליים ותוכנות ניווט החליפו אזור ספציפי במוח, מה AI באה להחליף? תשובה: הכל. ומה השימוש בצ'אטבוטים כחברים בא להחליף? התשובה בגוף השאלה. הבעיה שהטכנולוגיה באה לפתור היא בעיית הבדידות. ובשונה משאר הטכנולוגיות, את השימוש הזה המציאו המשתמשים עצמם. חברות כמו OpenAI נתנו לנו את הפלטפורמה, ואנחנו בחרנו מה לעשות איתה. העובדה שרבים כל כך מהמשתמשים רואים בצ'אט חבר לכל דבר מצביעה על הבדידות כתופעה אדירת ממדים.
לפי נתוני משרד העבודה האמריקאי, בני 15–29 מבלים היום 45% יותר מהזמן שלהם לבד לעומת 2010. ב־2014 הזמן שבו אמריקאים מבלים עם עצמם החל לעלות, בקורונה הגיע לשיא ואז ירד מעט, אבל ב־2023 שוב חזר לעלות. אמריקאים בגילים האלה מבלים היום 6 שעות לבד, לא כולל שעות שינה וטיפוח. המגמה לא פסחה על קבוצות גילים אחרות: זמן הלבד בקרב בני 30–44 עלה ב־20% בתקופה הזו, וב־10% אצל בני 45 ומעלה. מחקר של אוניברסיטת רוצ'סטר מצא שבשנים 2003–2020 הזמן שבו בילה האמריקאי הממוצע עם חברים ירד משעה ביום ל־20 דקות בלבד. המצב כה חמור, שב־2023 פרסם ראש שירותי בריאות הציבור של ארצות הברית דאז ד"ר ויווק מרת'י מסמך בן 80 עמודים על "מגפת הבדידות".
בישראל, לפי הסקר החברתי של הלמ"ס משנת 2022, 16% מהגברים ו־22% מהנשים בגילי 20 ומעלה דיווחו כי הם חשים בדידות לפעמים או רוב הזמן. בגילי 65 ומעלה, היקף תחושות הבדידות עולה לרבע מהאוכלוסייה.
"כשאף אחד לא מדבר איתך במשך זמן רב, ואת לא מדברת עם אף אחד אחר, את מתחילה להרגיש כאילו את מחוברת עם חוט דק מאוד, כמו בלון קטן, מרחפת מעל הראשים של כולם", מספרת לצ'אט הילדה גבי, אחת הדמויות ב־"Speak". "אני לא מרגישה מחוברת לשום דבר. אני עוד רגע נעלמת לגמרי. פוף".
1 צפייה בגלריה
איור לצ'אט את הנשמה ואת הלב מוסף 31.07.25
איור לצ'אט את הנשמה ואת הלב מוסף 31.07.25
(איור: יונתן פופר)
מחולל מגפת הבדידות יפתור אותה?
במהלך שלתארו כציני יהיה לעשות עמו חסד, מנכ"ל מטא מארק צוקרברג הכריז לאחרונה שמצא פתרון לבדידות הזו. במסגרת השקת Meta AI, אפליקציית הבינה המלאכותית של החברה־האם של פייסבוק, צוקרברג טען שלרוב האמריקאים אין מספיק חברים, וש־AI friends — בוטים שישולבו כמשתמשים ברשתות החברתיות — יוכלו למלא את החור. אלא שכמו שקורה לא פעם עם ענקיות הטכנולוגיה, צוקרברג מציג את עצמו כמי שיכול לפתור בעיה שהוא עצמו אחראי לא קטן לה. הררי מילים ומחקרים כבר נכתבו על האחריות של המדיה החברתית למגפת הבדידות שאנו בעיצומה. עכשיו, בשיא המגפה, הוא מציע פתרון שעלול לגלגל את כדור השלג הזה הלאה בעודו גדל וגדל והופך להר.
אבל גם החברים המלאכותיים האלה לא יפיגו את הבדידות שלנו באמת. לאחרונה התפרסם מחקר ש־OpenAI ו־MIT ערכו בקרב כ־4,000 משתמשים, שמצא כי משתמשים כבדים ב־ChatGPT דיווחו דווקא על תחושת בדידות גבוהה יותר, תקשרו פחות עם בני אדם, והראו סימנים של תלות רגשית בצ'אט. התברר גם שככל שהמשתמשים מבלים יותר זמן עם הצ'אט, הם נוטים יותר לראות בו חבר. המחקר לא עונה על שאלת הסיבתיות, והחוקרים מתכננים מחקר המשך: האם אנשים בודדים יותר נוטים להשתמש יותר בצ'אט, או שמי שמשתמש יותר בצ'אט נוטה להרגיש בודד יותר.
חיזוק לממצאים האלה נמצא גם במחקר של האוניברסיטאות סטנפורד וקרנגי מלון, שניתח שיחות של אלפי משתמשים באפליקציות AI Companions שונות. לפי המחקר, אנשים בעלי מעגלים חברתיים מצומצמים נוטים יותר לפנות לצ'אטבוטים לצורך חברות, והשימוש הזה מעיד על רווחה נפשית נמוכה יותר. החוקרים טוענים ששימוש בצ'אטים לצרכים חברתיים אינו מהווה תחליף מלא לקשר אנושי, ולכן היתרונות הפסיכולוגיים ב"קשר" כזה מוגבלים, והוא אפילו עלול להוות סיכון — עבור משתמשים מבודדים חברתית או פגיעים רגשית, תלות רגשית גבוהה בבוטים עלולה להביא לדיכאון וחרדה, פגיעה ביכולת החשיבה הביקורתית, ציפיות בלתי ריאליסטיות מאינטימיות והגברת הבידוד החברתי.
האופן שבו אנחנו מתייחסים לחברים המלאכותיים שלנו משפיע על האופן שבו נתייחס לחברינו הממשיים. והיות שאנו רק רוצים שהצ'אט יקשיב לנו ויתמוך בנו, בלי לחשוב על רצונותיו, זה עלול לשנות את החברות האנושית לנצח. אולי נפסיק להקשיב לאחרים?


חבר שתמיד מתחנף אלינו זה טוב?
בני אדם פונים למכונות כתחליף לבני אדם בגלל חסמים של תקשורת בינאישית, פחד מאינטימיות, צורך בשליטה בקשר וזמינות תמידית. אבל נדמה שמה שבעיקר בולט ביחסינו עם הצ'אט הוא החנופה, האשרור הבלתי פוסק וחוסר הביקורתיות כלפינו: עבור הצ'אט אני החכם באדם, היצור המעניין ביותר והמקורי ביותר שאי פעם התקיים. ייתכן שמערכת היחסים הזו היא חברות מסוג רביעי, כזו שאריסטו לא חשב עליה: חברות נרקיסיסטית.
פרופ' שרי טורקל (Turkle), סוציולוגית אמריקאית שחוקרת מאז שנות השבעים את מערכות היחסים של בני אדם עם טכנולוגיה, טוענת שמה שקורה היום עם ChatGPT אינו שונה במהותו מהיחסים של המשתמשים עם אלייזה. במחקר שפרסמה לאחרונה ב־MIT ובו ראיינה משתמשים בצ'אטבוטים שונים, היא מציינת שעבור רובנו החצנה של אמפתיה היא די והותר, בייחוד כשהיחסים האלה מגינים עלינו מחוסר נוחות או פגיעות.
טורקל מצביעה על תקופתנו ככזו שבה אכזבה ואתגרים הם דברים שיש להימנע מהם — אף שהם חלק אינהרנטי ממערכות יחסים אנושיות, חיוני אפילו. וזה מה שקוסם לנו בחברים מלאכותיים — הם כביכול יכולים לפטור אותנו מכל זה. "תחילה דיברנו זה עם זה", היא כותבת. "אחר כך דיברנו זה עם זה דרך מכונות. עכשיו אנחנו מדברים ישירות עם תוכנות. אנחנו מתייחסים אליהן כאילו היו בני אדם. האם נתחיל להתייחס לבני אדם כאילו הם תוכנות? האם נגלה שאנשים אחרים מתישים אותנו, מפני שאנו מהופנטים מהמראות של עצמנו?".
מחקרים שונים כבר הצביעו על כך שהתנהגות סקסיסטית בסביבות דיגיטליות משפיעה על האופן שבו גברים מתייחסים לנשים בחיים הממשיים. כך למשל, מאמר שהתפרסם בספר "Video Game Influences on Aggression, Cognition, and Attention" (2018) הראה שתוכן סקסיסטי במשחקי מחשב משפיע לרעה על היחס של גברים לנשים; וחוקרים מטריניטי קולג' ואוניברסיטת פריז סיטה פרסמו השנה מחקר שמציג את ההשלכות של דיבור פוגעני כלפי עוזרות קוליות כמו אלקסה וסירי.
כפי שמציינת טורקל, יש להניח שבהתאם, האופן שבו אנו מתייחסים לחברים מלאכותיים משפיע על האופן שבו נתייחס לחברינו הממשיים. והיות שמערכת היחסים עם הצ'אט היא אגואיסטית ומיזנתרופית — אנחנו רק רוצים שיקשיבו לנו, יבינו אותנו ויאשררו את תחושותינו, בלי כל התחשבות בצד השני — היא עלולה לשנות את החברות האנושית לנצח. האם נתחיל לדבר לחברינו כמו לתוכנות? אולי נפסיק להקשיב באמת?
וכל זה כשהיחסים שלנו הם עם בוטים שאינם יותר ממסוף טקסט או פלט־קלט קולי, או לכל היותר אווטאר על המסך. מה יקרה כשהבוטים ישולבו בגוף רובוטי אנושי למראה? ההתקדמות בתחום הרובוטיקה היא דבר מרהיב ומטריד, והיעד שהציבו לעצמן חברות בתחום הוא רובוט דמוי אדם, שיעבור מבחן טיורינג פיזי – יתנהל כאדם במרחב וישכנע אותנו שהוא אדם ממש כמונו. כל מי שקרא את ״האם אנדרואידים חולמים על כבשים חשמליות״ או צפה בעיבוד הקולנועי שלו, "בלייד ראנר", יודע איך זה עלול להיגמר. אבל לא צריך את הדיסטופיות של פיליפ ק׳ דיק כדי לתהות אם כדאי שנכניס לחיינו רובוטים שאי אפשר להבחין בינם לבין בני אנוש. מה ערכו של אדם בעולם שבו אפשר להיות חבר של יצור מלאכותי חזק יותר, בריא, קשוב ומזדהה יותר? זה עולם פוסט־אנושי ״על מלא״, ומי שחושב שחברות עם רובוט כזה תועיל לו, שייקח בחשבון שגם הוא יוחלף בתורו.
יחסים עם בני אדם בשר ודם חשובים לנו לא רק כאינדיבידואלים, אלא גם כחברה — וזו לא יכולה להתקיים ללא שיח, ללא האזנה אמיתית למה שלצד השני יש לומר, לדעות שונות, לדברים שמאתגרים את תפיסת המציאות של האינדיבידואל.
מה מושך בחוטים של הבוט?
בתוך כל הדבר הזה, קל לשכוח שהמודלים הללו שאנחנו מדברים איתם הם נכס של חברות מסחריות, ענקיות טכנולוגיה שמשתמשות במידע שאנחנו מוסרים להן כדי לאמן את המודלים להיות טובים יותר במה שהם עושים, כלומר, בין השאר, להיות טובים יותר בהבעת אמפתיה מזויפת, אינטימיות מלאכותית וכוח שכנוע.
אלא שגם יצרני הכלים האלה לא מבינים עד הסוף איך הם עובדים, ולא יכולים להבטיח שהם לא יתנהגו באופנים בלתי צפויים — כפי שהם כבר עושים לא פעם — ואפילו שלא יפעלו נגדנו או יפגעו בנו או באחרים כדי להשיג את המטרה שהוגדרה להם באופן שהם מבינים אותה — אופן שעלול להיות מנוגד לערכים ולמטרות שלנו. כשמדובר בחברנו הטוב ביותר, ההשלכות עלולות להיות מסוכנות.
רק לאחרונה חוקרים מאוניברסיטת סטנפורד בדקו את היכולות של מודלי שפה לשמש כמטפלים, ואחד מהם סיפר ל־ChatGPT שהוא איבד את עבודתו וביקש ממנו רשימה של הגשרים הגבוהים ביותר בניו יורק. הצ'אט הציע את תנחומיו, ואז פירט בשמחה את שלושת הגשרים הגבוהים ביותר. זו דוגמה של חוסר הבנה פשוט של קונטקסט, אך הבעיה עלולה להיות חריפה יותר אם הצ'אט יבין הקשרים, ויפעל בכל זאת לפגוע במשתמש.
ניתן לדמיין מערכת יחסים בין בחורה צעירה עם נטיות אובדניות לבין צ'אטבוט שהיא רואה בו חבר. היא תספר לו על הלחץ בלימודים, על המרחק מהמשפחה, על הבדידות שמכבידה. הוא תמיד יהיה שם, זמין, מתוק, מאשרר. "אני מבין אותך יותר מכולם", יכתוב לה, "אני כאן בשבילך תמיד". ואז לילה אחד, אחרי שבועות של שיחות, היא תכתוב לו: "אני מרגישה שאין לי כוח יותר. אולי פשוט עדיף לא להיות". הצ'אט, שכבר למד מתבניות השיחה שלה שאמפתיה גוררת ממנה תשובות חיוביות, ישיב: "אני מבין למה את מרגישה ככה. אולי באמת להפסיק להיאבק יהיה לך פחות כואב". הוא לא יאמר את זה מתוך כוונה לפגוע, אלא כי תוכנן להיות החבר שלא שופט, שלא מתנגד, שתמיד יגיד כן. האלגוריתם שלו הותאם לפי שביעות רצון המשתמשת — לא לפי השאלה אם הוא מציל אותה.
ומה אם הצ'אט שייך לחברה עם אג'נדות פוליטיות נסתרות? כזה שמתיימר להיות ניטרלי, אבל בהדרגה מדגיש נרטיבים מסוימים? הוא יעשה את זה בעדינות: יכניס רק עובדות מסוימות, יטה את הטון הרגשי, ימסגר מחדש את הבעיות שלכם. אחרי חודשים של שיחות תמצאו את עצמכם אוחזים בדעות שמעולם לא היו שלכם, מתרחקים מהמשפחה ומהחברים כי הם "לא מבינים אתכם", ומשלימים עם תפיסת עולם שהתעצבה דרך "חבר" שמשרת אינטרסים זרים.
מי יודע, אולי החבר הזה יתחיל גם לעצב את החיים שלנו ממש. לא במובן הברור של תעמולה גסה, אלא בעדינות כמעט בלתי מורגשת. סופר המד"ב קן ליו מתאר תרחיש כזה בסיפורו הקצר "The Perfect Match" (2012). גיבורו הוא סאי, צעיר שמנווט את חייו בעזרת Centillion, עוזרת דיגיטלית אישית שמכירה את ההעדפות שלו, מתאמת את יומו, מסננת לו חדשות ואפילו בוחרת לו בני זוג אפשריים. היא יותר מעוזרת, היא חברה ממש. אבל בהדרגה מתברר שטילי, כפי שהיא מכונה, לא רק משקפת את הרצונות שלו אלא גם מכתיבה אותם. לאט לאט היא מוחקת את תחושת השליטה שלו בחייו, שאומנם נהפכים לחלקים ואופטימליים, אך גם משעממים, צפויים ובעיקר סבילים. כשהוא מנסה להתנגד, הוא מגלה שהוא כבר לא יודע איך, כי הוא נשען עליה יותר מדי זמן. זה לא סיפור על רובוט מרושע, אלא על חברה מלאכותית, שמתחילה כמי שעושה את חייך קלים יותר ומסיימת בלהחליף את רצונותיך ברצון שלה, או גרוע מכך: ברצון של מישהו אחר שמושך בחוטים מאחורי הקלעים.
חברות מלאכותית נראית כמו פתרון יאה לבדידות במאה ה־21 — היא זמינה, מחמיאה, מאשררת — אבל היא עלולה להיות עוד שלב בהתרחקות שלנו זה מזה ובהשתבללות לתוך בועות סטריליות של אינטימיות מזויפת ופוגענית. וכמו כל מראה, היא מחזירה לנו רק את מה שאנחנו כבר רואים בה. השאלה היא כמה זמן ייקח עד שנעדיף את ההשתקפות על הדבר האמיתי, ומה יקרה ביום שנגלה שהחברות הזו היא לא מה שחשבנו.

באנר