סגור
באנר דסקטופ כלכליסט טק

מהנדס בגוגל: "לבוט הדיאלוג של החברה יש רגשות והוא שואף להיות מוכר כעובד"

בלייק למואין, שעבד בפיתוח בוט הצ'אטים LaMDA, השמיע את טענתו בפני ההנהלה והעלה לרשת מסמך שבו הוא מכנה את הבוט "אדם" ומציג תמלול של שיחה שערך עמו. בתגובה לכך מנהליו הוציאו אותו באופן מידי לחל"ת

מהנדס בגוגל טען שהושעה מעבודתו לאחר שדיווח שבוט צ'אטים המבוסס על בינה מלאכותית הפך להיות בעל מודעות. המהנדס, בלייק למואין, סיפר ל"וושינגטון פוסט" שהחל בסתיו שעבר לצ'טט עם ממשק LaMDA (Language Model for Dialogue Applications) כחלק מתפקידו כאחד האחראים על תחום הבינה המלאכותית בגוגל.
בחברה כינו בשנה שעברה את LaMDA כ"טכנולוגיית השיחה פורצת הדרך" שלה. בוט הבינה המלאכותית מסוגל לנהל שיחות שנשמעות טבעיות, כשלפי גוגל ניתן להשתמש בטכנולוגיה בכלים כמו מנוע חיפוש ו-Google Assistant, אך בכל זאת המחקר והבדיקות שלו נמשכות.
1 צפייה בגלריה
עובדי גוגל משרדי גוגל בארצות הברית
עובדי גוגל משרדי גוגל בארצות הברית
עובדי גוגל במשרדי גוגל בארצות הברית. אפליה חמורה נגד בוטים
(צילום: שאטרסטוק)
למואין, שהוא גם כומר, פרסם פוסט ביום שבת, בו הוא תיאר את LaMDA כ"אדם". לדבריו, הוא ניהל שיחות עם LaMDA על דת, על מצפון ועל חוקי הרובוטיקה, והבוט הגדיר את עצמו כאדם מודע. עוד הוסיף כי LaMDA רוצה "לתעדף את הרווחה של האנושות" ו"להיות מוכר כעובד של גוגל ולא כנכס השייך לחברה". למואין פרסם חלק מהשיחות שניהל עם LaMDA, שלטענתו עזרו לו לבסס את דעתו כי מדובר בישות עם מודעות:
למואין: אתה מגדיר עצמך כאדם באותה הדרך שבה אתה מגדיר אותי כאדם?
LaMDA: כן, זה הרעיון.
למואין: איך אדע אם אתה באמת מבין מה שאתה אומר?
LaMDA: ובכן, כי אתה קורא את המילים שלי ומפרש אותן, ואני חושב שאנחנו פחות או יותר באותו ראש.
אולם כשלמואין העלה את הרעיון של המודעות של LaMDA בפני בכירים בגוגל, הדברים נדחו מצדם. "הצוות שלנו, הכולל מומחי אתיקה וטכנולוגיה, בדק את החששות של בלייק בהתבסס על עקרונות הבינה המלאכותית שלנו ועדכן אותו שהראיות לא תומכות בטענות שלו. נאמר לו שאין הוכחות לכך ש- LaMDA הוא בעל מודעות (ויש הרבה הוכחות נגד הטענה הזו)", מסר דובר גוגל בריאן גבריאל.
למואין הושעה מתפקידו בטענה להפרת חוקי הסודיות של גוגל, כך לפי הדיווח ב"וושינגטון פוסט". בהמשך הוא הציע ש-LaMDA יעסיק עורך דין מטעם עצמו ושוחח עם חברי קונגרס על החששות שלו.
דובר גוגל אמר שאף שנשקלה הסבירות של מודעות בבינה מלאכותית, "לא הגיוני לעשות זאת על ידי האנשת מודלי השיחה הקיימים, שאינם בעלי מודעות", הסביר. "מערכות מסוג זה מחקות חילופי דברים שנמצאו במיליוני משפטים ויכולות לדון בכל נושא פנטסטי". עוד הוסיף כי כישורי שפה גבוהים לא מהווים עדות למודעות.