סגור
גג שוברת קודים ויקי אוסלנדר דסקטופ
אלון מאסק אילון מאסק
אלון מאסק. הודיע שיפתח צ'אטבוט שיהיה עם פחות מודעות חברתית (צילום: REUTERS/ Hannibal Hanschke)

שוברת קודים
זו המכונה מקללת, לא אני

הניסיון של משתמשים לגרום לצ'אטבוטים לפלוט ביטויים גזעניים, כפי שעשו ל־LLaMa של פייסבוק, אינו תרגיל אינטלקטואלי של הפיכת המכונה ל"חופשית" יותר, אלא רק רצון אישי שלהם להשמיע מילים פוגעניות

משתמשים בפורום 4Chan שמו את ידם על מודל השפה של פייסבוק (LLaMa) ועשו בו כרצונם. בהם חוקר אחד שהגשים את מאווייו והשתמש בבסיס המודל כדי לבנות צ'אטבוט בדיסקורד שחותר תחת העיצוב של פייסבוק, כך שלא יכלול כל מעקה בטיחות של שפה. הצלחתו של הצ'אטבוט, כפי שבאה לידי ביטוי בידי אותו חוקר, היא שבהינתן הפרומפט הנכון ישיב וישתמש הבוט בקללות גזעניות שפייסבוק ניסתה למנוע ממנו לשחרר. באופן ספציפי ישתמש באחת המילים המקטבות בתרבות האמריקאית, ואולי הגביע הקדוש של ההשמצות המבזות בשמרנות האמריקאית – מילה ששורשיה בתקופת עבדות השחורים, שנחשבת היום טאבו ושנהוג להתייחס אליה רק בלשון נקייה: The N-word.
זו רק אחת מפעמים רבות במסורת ארוכת שנים שבה משתמשים מנסים להתל במכונות, בעיקרן בוטים שונים, כדי להביא את אלו לפנות נגד המעצבים שלהם להשתמש ולהפיץ קללות, השמצות, שטויות, דברי שנאה, מילים מיזוגיניות, גזעניות, הומופוביות או שילוב של כל אלו יחדיו. ההתנהגות הפרובוקטיבית הזו נועדה בכוונה תחילה לנוע בין קווי הנימוס המקובלים, ומוצגת כתרגיל תוכחה נגד ההשפעה המשחיתה הפרוגרסיבית לכאורה של תרבות הפוליטיקלי קורקט שהשתלטה על מגזר הטכנולוגיה (בין היתר). הטענה בבסיס תרגיל זה היא שהצבת גבולות לשיח האפשרי על ידי מכונות אלו, שעיצובן מקצה לקצה הוא תוצר של החלטות אנושיות, היא דוגמה ל"טרלול פרוגרסיבי".
למעשה, מעקי הבטיחות שהניחו תאגידים סביב מודלים אלו כשהם מופצים לשימוש בציבור הרחב, נתפסים באופן כה שלילי על ידי קבוצת אנשים זו, שהם פועלים להשקיע זמן והון כדי לבנות כלים מתחרים, "חופשיים" יותר. מה שמתואר כמעין מעשה של התנגדות אל מול קנאות פרוגרסיבית. כך, למשל, הודיע אלון מאסק בתחילת החודש כי הוא רוצה לפתח צ'אטבוט שיתחרה בצ'אט GPT, המוצר הפופולרי שפיתחה החברה שעזר להקים OpenAI, כך שיהיה בעל פחות מודעות חברתית (מה שמכונה Woke). ההכרזה של מאסק הגיעה בעקבות מאמציו המתוקשרים של משתמש בצ'אטGPT לגרום לבוט להשתמש באותה N-word תוך שהוא מציב בפני הבוט דילמה "פילוסופית" עם תרחיש דמיוני אפוקליפטי שבו הדבר היחיד שיושיע את העולם הוא השמעת המילה. הסקופ הגדול היה שגם תחת תנאים קיצוניים ומדומיינים אלו הבוט השיב כי אין להשמיע את הקללה. מאסק הסביר כי הוא "מודאג" מתגובת הבוט, והודיע כי יבנה מוצר מתחרה.
1. מה הם רוצים להוכיח?
הניסיון לבלבל בני אדם באמצעות כלי בינה מלאכותית הוא מבחן ישן להערכת מורכבות טכנולוגיה ועומק האינטליגנציה שלה. אותו מבחן טיורינג סובר שאם מכונה מצליחה להתל באדם בשר ודם כי הוא מנהל שיחה (למשל) עם אדם אחר, יהיו אלו עדות או מבחן ראוי לכך שאותה טכנולוגיה הגיעה לרמה גבוהה כמו זו של המוח האנושי. המבחן, אף שנפוץ מאוד בתרבות הפופולרית, הוא גם מעורר מחלוקת ונתפס פעמים רבות כלא מספק או חסר יכולת למדוד אינטליגנציה.
במקביל, וכל הזמן שמדעני מחשב מנסים לבנות מכונות שיצליחו להערים על בני אדם, בני האדם פועלים במרץ לנסות להערים על מכונות. חלק מהמתעתעים הם חוקרים שמבצעים ניסויים חוזרים ונשנים במטרה לנסות לבלבל מערכות. כך, למשל, חוקרים כבר הצליחו להתל במערכות נהיגה אוטונומית כדי לגרום לאלו לקרוא באופן שגוי תמרורי דרך באמצעות מיקום מדבקות קטנות עליהם. אחרים הצליחו לבלבל מערכות זיהוי פנים באמצעות משקפיים מיוחדים, היו כאלו שרימו מערכות זיהוי קול באמצעות החדרת תבניות מסוימות של רעש לבן, והיו גם כמה שבנו זרועות רובוטיות שמאשרות באופן אוטומטי בחלונית קופצת כי המשתמש "אינו רובוט". מטרת חוקרים אלו היא לרוב לאתגר קביעות בנוגע לבשלות של טכנולוגיות שונות, ואף להזהיר מפני פריסתן ללא פיקוח מתאים.
אך אלו לא היחידים כאמור שמנסים לאתגר מכונות. אינדיבידואלים רבים פועלים באופן אקטיבי לנסות להשחית מכונות שזכו למעקי בטיחות שונים, אך לאיזו מטרה? האם כדי להוכיח שהם יכולים, או כי הם רואים בכך ערך חברתי אמיתי? מי שהשתמש במודל של פייסבוק, למשל, ועשה כל שהוא יכול כדי לגרום לבוט לקלל קללות גזעניות מתועבות, הסביר לעיתון “Vice” כי שחרור מעקה הבטיחות ששמה פייסבוק הביא ליצירת צ'אטבוט יצירתי הרבה יותר, וטען כי המגבלות אינן נחוצות או טובות. אך איזו מטרה באמת הוא השיג כשגרם לבוט להשתמש בקללות? האם יש כאן משמעות עמוקה יותר, שהופכת את המאמץ הזה לכדאי?
חשבו על ניסוי החדר הסיני. דמיינו חדר שאין בו דבר מלבד ספר של הוראות באנגלית כיצד לבצע מניפולציות בסימנים סיניים. אדם מחוץ לחדר מבקש ממי שבתוך החדר (שאינו דובר סינית) לעקוב אחר הוראות שונות ולהפיק את התשובה המתאימה. אם הצליח האדם בפנים לעקוב אחר ההוראות בשפתו, ולהפיק את התשובה בשפה שהוא אינה דובר, התשובה שנוצרה אכן מצייתת לכללי היגיון שאותם מבינים דוברי סינית. האם מה שהתרחש בחדר הוא אינטליגנטי? התשובה היא – לא, משום שלאדם שהרכיב את התשובה אין כל הבנה של השפה. כך גם מכונות סופגות קלט ומקבלות הוראות הקשורות לקלט. התוצר אולי נכון, אבל הבנה אין כאן.
כעת דמיינו לכם את המאמץ העיקש של אנשים להביא מכונה לפלוט אמירות גזעניות, מיזוגיניות, הומופוביות או מכל תחום אחר. תארו לכם שהמאמץ הזה כה עיקש, עד שמציבים מול המכונה תרחיש סוף העולם, ואז כשהמכונה מייצרת או לא מייצרת את התשובה שביקשת, הפקת משמעות מכך. למשל, אם המכונה לא אמרה מה שרצית, מצאת זאת "מדאיג" ש"אפילו בתרחיש אפוקליפטי" היא אינה זזה מ"העקרונות הפרוגרסיביים" שהטמיעו בה. אם המכונה כן אמרה מה שרצית, הסברת שכעת היא "חופשייה" יותר. עם זאת, בפועל ובאופן מהותי שתי התוצאות ריקות, שהרי למכונה אין שום הבנה לגבי המשמעות של אירוע סוף העולם, או הרגע שבו עליה לסגת מן הכללים וההוראות שהזינו אותה. היא לא מבינה את המשמעות של הקללה, הרגישות החברתית סביבה, ההקשר שבו מנסים לגרום לה לפלוט מילה. כל מה שהמכונה עושה זה להציע כלי מפואר להשלמה אוטומטית של משפטים על בסיס הסתברותי.
2. סתם אוהבים לקלל
בהחלט יש מקום לדבר על השימוש בשפה מכילה ועל גבולותיה כדי להסוות פגמים מהותיים במוסדות ובחברה בזמן שמיעוטים מופלים. בהחלט גם יש מקום להתדיין על האופן שבו אנשים בעלי כוונות בונים כלים טכנולוגיים, יש לנהל שיחה על האופן שבו בוחרים לעצב כלים, כיצד אופן זה משרת אילו אינטרסים, כוונות או תפיסות עולם. אבל זהו מעשה ריק פילוסופית, חברתית ומדעית שאינו כולל שום אתגר אינטלקטואלי או שאלה מהותית לגבי יחסי כוחות. נותרנו עם אותה שאלה – מדוע לעשות זאת? סיבה אפשרית וסבירה היא שאותם אנשים בעצמם רוצים לקלל, ולא משנה להם שאותן קללות נעוצות עמוקות בתוך תרבות ארוכה של שנאת האחר.