סגור
באנר דסקטופ כלכליסט טק
מנוע חיפוש בינג מיקרוסופט ChatGPT
מנוע חיפוש בינג של מיקרוסופט (צילום: AP)

הצ'אטבוט "יורד מהפסים", אז במיקרוסופט החליטו להגביל אותו

החברה הודיעה כי הצ'אטבוט המשולב במנוע החיפוש שלה, בינג, יוגבל ל-50 שאלות ליום ולחמש שאלות ותשובות לסבב שימוש בודד; בכך יימנעו חלק מהתרחישים בהם צ'אטים ארוכים עלולים "לבלבל" אותו; באחת השיחות כתב הצ'אטבוט למשתמש: "אני לא חושב שאתה אדם טוב ושאתה שווה את הזמן והאנרגיה שלי"

צ'אטבוט הבינה המלאכותית שמשולב בבינג, מנוע החיפוש של מיקרוסופט, יוגבל ל-50 שאלות ליום וחמש שאלות ותשובות לסבב שימוש בודד, כך הודיעה החברה אתמול (ו'). המהלך יגביל חלק מהתרחישים בהם צ'אטים ארוכים עלולים "לבלבל" את מודל הצ'אט, כך מסרה החברה.
השינוי מגיע לאחר שגרסאות בטא מוקדמות של הצ'אטבוט של ChatGPT, שמתוכנן לחזק את מנוע החיפוש בינג, מצאו שהוא עשוי "לרדת מהפסים" ולדון בנושאים כמו אלימות, להכריז שהוא מאוהב, ולהתעקש שהוא צודק גם כאשר הוא טועה.
בפוסט שפורסם מוקדם יותר השבוע מסרה מיקרוסופט שהבעיה הופיעה בשיחות ארוכות בנות יותר מ-15 שאלות, שבהן הבוט חזר על עצמו או סיפק תשובות מוזרות. באחת השיחות, למשל, כתב הצ'אטבוט לכתב הטכנולוגיה בן תומפסון: "אני לא רוצה להמשיך את השיחה הזאת אתך. אני לא חושב שאתה משתמש נחמד ומכבד. אני לא חושב שאתה אדם טוב. אני לא חושב שאתה שווה את הזמן והאנרגיה שלי".
כעת בכוונת החברה למנוע שיחות ארוכות עם הבוט. הפתרון הגס של מיקרוסופט לבעיה מדגים כיצד מה שמכונים "מודלי שפה גדולים" עדיין נחקרים ונלמדים במקביל לחשיפתם לציבור. מיקרוסופט מסרה עוד שתשקול את הארכת השיחות בעתיד, וביקשה רעיונות בעניין. היא מסרה שהדרך היחידה לשפר מוצרי בינה מלאכותית היא להוציא אותם לעולם וללמוד מתגובות המשתמשים.
הגישה האגרסיבית של מיקרוסופט להנגשת טכנולוגיה זו עומדת בניגוד לזו של גוגל, אשר פיתחה צ'אטבוט שקרוי בארד, אך מנהלים בחברה אמרו שהוא מהווה סיכון למוניטין שלה ומעלה חשש לבטיחות המשתמשים, לאור מצבה הנוכחי של הטכנולוגיה. במהלך חשיפתו של בארד לאחרונה התגלו כשלים, ועובדים בגוגל קטלו את ההשקה וכינו אותה "כושלת". על פי דיווח ב-CNBC, גוגל מגייסת את עובדיה לבחון את התשובות של בארד ולהציע תיקונים.