סגור
גג שוברת קודים ויקי אוסלנדר דסקטופ
איור סם אלטמן
איור (איור: יונתן פופר)

שוברת קודים
סם אלטמן מציג: מי ישמור על הצ’אטבוט שטועה

מנכ”ל OpenAI, החברה מאחורי ChatGPT, השיק תוכנית מלגות במיליון דולר לפיתוח הצעות לרגולציה על בינה מלאכותית. אלא שהחברות רוצות שנדאג מאיומים עתידיים ונשכח מהסכנות שכבר ממש פה

בשבוע שעבר נפל דבר. עורך דין אמריקאי עם ניסיון של מעל 30 שנה החליט להשתמש ב־ChatGPT במסמכים שהגיש לבית המשפט. הצ’אטבוט, כפי שצ’אטבוט זה נוהג לעשות, המציא נתונים ותקדימים שאותם שיבץ עורך הדין בנונשלנטיות כאילו היו עובדות. למרבה צערו ובושתו, הצוותים המשפטיים והשופט שהוקצו לתיק הבינו במהרה כי אין דרך לאתר אף אחת מהחלטות בית המשפט שאליהן מתייחס עורך הדין. כשפנו אליו להסברים הוא הודה כי נעזר בצ’אטבוט להשלמת המחקר שלו, אך הסביר שלא ידע שייתכן כי תוצריו יכולים להיות שקריים.
הרשת רעשה ובעיקר לעגה לעורך הדין שנתפס במעשה, אם משום שהפגין תמימות טכנולוגית יוצאת דופן ואם כי פשוט נתפס במעשה מרמה מהרמה הנמוכה ביותר. אף שהדבר מעט מצחיק, הוא מעלה שאלה חשובה במיוחד – מדוע אותו עורך דין ותיק חשב שהצ’אטבוט הוא טכנולוגיה שניתן לסמוך עליה? או כיצד ייתכן שטכנולוגיות אלו משווקות באופן שמצליח להטעות משתמשים לגבי יכולותיהן? שאלה זו מתחדדת במיוחד משום שהיא מצביעה כבר היום על נזק ממשי מהטכנולוגיה ופריסתה שנובע לו רק בשל אופיו התחרותי של השוק ומאמץ של חברות שונות להפוך את המוצרים שלהן לנחשקים יותר מאחרים. כל זאת בזמן שהשיח סביב טכנולוגיות אלו והמאמץ לפקח עליהן נוגע רק לישות אמורפית מדומיינת שאולי יום אחד תתפתח מאותה טכנולוגיה ותייצר נזק חברתי גדול.
1. ”ננסה לציית, או שלא”
אותה החברה שמאחורי ChatGPT הודיעה בסוף השבוע כי היא משיקה תוכנית מענקים. OpenAI תעניק עשר מלגות, כל אחת בהיקף של 100 אלף דולר, ליחידים, צוותים או ארגונים, כדי לפתח “הליך דמוקרטי” שדרכו ייענו שורת שאלות (שהחברה ניסחה) לגבי האופן שבו יש לקבוע את סוג הרגולציה שיש להשית על פיתוחי בינה מלאכותית. “אף שהניסויים הראשוניים הללו לא נועדו (לפחות לעת עתה) להיות מחייבים לקבלת החלטות, אנו מקווים שהם יחקרו שאלות רלבנטיות להחלטות ויבנו כלים דמוקרטיים חדשים שיכולים לתת מידע ישיר יותר להחלטות בעתיד”, כתבה החברה בבלוג שפורסם בסוף השבוע. “מענק זה מייצג צעד לביסוס תהליכים דמוקרטיים לפיקוח על... בינה מלאכותית עליונה על האדם”.
התוכנית מגיעה על רקע שורת התבטאויות של מנכ”ל OpneAI סם אלטמן כמו גם של כמה בכירים אחרים בתחום. זמן לא רב לפני כן, בעת שימוע מול הקונגרס האמריקאי, הסביר אלטמן שהוא ועמיתיו “חרדים” לאופן שבו המוצר שהם מפתחים “יכול לשנות את הדרך שבה אנו חיים” ושהחברה שלו, ותעשיית הבינה המלאכותית, עלולות “לגרום נזק משמעותי לעולם”. אלטמן, ראוי לציין, מסר הצהרות אלו בזמן שהוא ומנהלים אחרים ממשיכים להתחרות בעוצמה רבה כדי לבנות את מה שהם מגדירים “נשק יום הדין”.
במסגרת המענק בחברה מעלים שאלות ספציפיות כמו “האם יש להתיר לבינה מלאכותית לזהות מגדר או גזע?” או “אילו עקרונות צריכים להנחות בינה מלאכותית בטיפול בנושאים הכוללים זכויות אדם והבדלים תרבותיים או משפטיים מקומיים, כמו זכויות להט”ב וזכויות נשים?”. החברה בחרה שאלות שדווקא יש לגביהן קונצנזוס מדעי רחב (אולי לא הנדסי) — למשל שמערכות לא צריכות לנסות לזהות מגדר, גזע, רגשות או נטייה מינית; או לקבוע פסיקות ערכיות בנושאי זכויות אדם.
אך השאלות פגומות מסיבה נוספת - הן אינן נוגעות בבעיות העיקריות סביב הטכנולוגיה שמייצרות כבר היום נזק חברתי וציבורי ממשי. כך, למשל, הן לא מעלות את השאלה שנוגעת ל־OpenAI ודומות לה על חשיפת נתוני האימון שעליהם אימנו את המודלים שלהן, כמה עליהן לשלם לעובדים שממיינים את הנתונים, האם יש לעצב את המוצרים כך שלא ייראו כאילו הם “דמויי אדם”, או האם הן צריכות לשלם ליוצרים שבנתונים שלהם הן משתמשות.
אלו שאלות חשובות שבחברה לא חושבים שראוי להעלות, בזמן שהם מבקשים יצירת “משוב דמוקרטי”. זה לא צריך להפתיע. בדיוק באותו הזמן שהחברה מחפשת לייצר הליכי רגולציה אלטרנטיביים למוסדות המדינה, צוטט אלטמן אומר בדיוק את אשר על לבו למחוקקים האירופים: הרגולציה שעליה אתם עובדים כבר תקופה ארוכה לא מתאימה לנו. על פי דיווח של “פייננשל טיימס”, אלטמן אמר: “ננסה לציית, אבל אם לא נוכל לציית, נפסיק לפעול”. אלטמן הסביר שהם חוששים כי מערכות כמו ChatGPT יוגדרו כ”סיכון גבוה” במסגרת החקיקה, מה שישית על המוצר שורה של דרישות הנוגעות לשקיפות ובטיחות. “או שנוכל לעמוד בדרישות או שלא... ישנן מגבלות טכניות למה שאפשרי”. בין הדרישות, החובה לחשוף פרטים שונים על עיצוב המערכת, לרבות מידע הקשור לגודל ועוצמת המודל, כמו גם מידע שהיה בו שימוש והוא מוגן בזכויות יוצרים. ככלל, כל המוצרים שפיתחו בחברה אומנו על מידע מהאינטרנט, רובו ככולו מוגן בזכויות יוצרים, שהחברה קצרה לשימושה.
2. תהליך האנשה מכוון
מאז, אלטמן חזר בו בציוץ. “שבוע פרודוקטיבי מאוד של שיחות באירופה על האופן המיטבי שניתן להשית רגולציה על בינה מלאכותית! אנחנו נרגשים לפעול כאן, וכמובן שאין לנו תוכניות לעזוב”. אך מהאמת קשה להתנער, במיוחד כשהיא עומדת בהלימה לאופן שבו אלטמן ומפתחים אחרים מבקשים מאיתנו לחשוב על המוצרים שלהם, ועל הרגולציה הנגזרת מזו.
כדי שאלו יוכלו להמשיך לעשות את מה שהם רוצים לעשות, יש לדחוק בנו לחשוש מאיומים עתידיים ולא מסכנות ממשיות. ואלו לא איום מעתיד שיש לו עדות ברורה מדעית להתממשותו, כמו למשל עליית מפלס הים בשל התחממות גלובלית, אלא כזה ששוכן בדמיון המפתחים. הם עושים זאת בין היתר בתהליך האנשה מכוון, מפזרים מולנו רמזים שהמערכות שלהם דמוי אנושיות. מעודדים אותנו לחשוב כי המוצרים שלהם “חושבים” לפני שנותנים תשובה, ו”הוזים” אם ממציאים עובדות. הם נותנים להם שמות או דואגים ש”יתנצלו” אם טועים. עבור ChatGPT האנשה היא הממשק של המוצר, לכן הם בחרו לעצב אותו כשהוא כולל הנפשה של “שלוש נקודות” כשהצ’אט בונה תשובה ויצירת פלט מדורג מילה אחר מילה שנותנים יחדיו את הרושם שהמערכת “מקלידה”. אם “דיבור” או התשובה נראים כמו ייצוג של מחשבה, אז הופעת המחשבה יכולה לסמל קיום ומכאן הדרך להשתכנע כי מכונה חייזרית מחסלת נמצאת ממש מעבר לפינה...
אך בזמן שהם מעודדים מעין חיבור רגשי בין אנשים ומערכות ודוחקים בנו לפחד מעתיד שאולי לא יקרה, הם מוזילים בכוונה את האחריות והסוכנות שלהם, כך שלא ניתן את הדעת לנזק שנעשה כבר היום בעולם האמיתי. בהתאם - רגולציה היא דבר יחסי. במובן שהחברות חותרות להתוות אותה, היא מושתתת על אחרים, בעתיד ועל מוצרים שעדיין לא פותחו; ולא על המוצרים הקיימים עם היכולות הנוכחיות.
מי שהיה יועץ הבית הלבן למדיניות בנושא בינה מלאכותית תמצת את החרדה שמייצרים אותם מנהלים סביב בינה מלאכותית גנרטיבית היטב: “זה דיסאינפורמציה. זה קמפיין מאורגן של החרפת פחדים... אני חושב שהמטרה, אם בכלל, היא לדחוף תגובה נגד בינה מלאכותית שאינה קיימת כדי שנוכל להתעלם מכל הבעיות האמיתיות של בינה מלאכותית שקיימות”.