סגור
google Bard גוגל בארד
גוגל בארד: "יכול לספק מידע לא מדויק, מטעה או כוזב תוך הצגתו בביטחון" (צצילום: Jonathan Raa / Getty Images)

גוגל: הצ'אטבוט בארד נפתח לניסוי של משתמשים בארה"ב ובבריטניה

פלטפורמת הבינה המלאכותית של גוגל, שאמורה להתחרות ב-ChatGPT, תתחיל בניסוי בארה"ב ובבריטניה עם מספר מצומצם של משתמשים. החברה מזהירה את המשתמשים שייתכנו טעויות בחלק מהתשובות

לאחר חודשים של שיח ציבורי על הופעת הצ'אטבוטים המופעלים באמצעות בינה מלאכותית, פתחה היום גוגל את פלטפורמת בארד (Bard) למספר מצומצם של משתמשים. החברה מאפשרת לאנשים בארה"ב ובבריטניה להירשם למוצר הבינה המלאכותית הגנרטיבית שלה ב-bard.google.com.
גוגל הודיעה כי תרחיב בהמשך את הנגישות למדינות נוספות ושפות נוספות. הפוסט שפורסם שכותרתו "נסה את בארד ושתף את המשוב שלך", נכתב על ידי סיסי הסיאו, סגנית נשיא המוצר, ואלי קולינס, סגן נשיא המחקר.
"אפשר להשתמש בבארד כדי להגביר פרודוקטיביות, להאיץ רעיונות חדשים ולתדלק את הסקרנות שלך", הם כתבו. "אתה יכול לבקש מבארד לתת לך טיפים להגעה ליעד של קריאת ספרים נוספים, להסביר פיזיקת קוואנטים במילים פשוטות או לעורר את היצירתיות שלך בתיאור של פוסט בבלוג. "עד כה למדנו הרבה בבדיקות של בארד, והשלב הקריטי הבא בשיפור שלו הוא לקבל משוב מאנשים נוספים שישתמשו בו".
הנסיינים ייכנסו לבארד באמצעות חשבון גוגל. החברה תציב אמצעי בטיחות כדי להבטיח שהשיחות בין המשתמשים לבין הבינה המלאכותית לא ייצאו משליטה. גוגל הודיעה כי תגביל את מספר חילופי הדברים בדיאלוג "כדי לשמור על אינטראקציות מועילות וקשורות לנושא". עם זאת לא יוגבל מספר הצ'אטים היומי. בארד יציג שלוש טיוטות שונות לכל תגובה, ציינה החברה בתדרוך. גוגל מצפה ששלב הבדיקות יעזור לה להבין באיזו תדירות אנשים מתקשרים עם בארד.
ההשקה מגיעה לאחר חודשים של בדיקת מהירות בעקבות הצגת הטכנולוגיה של ChatGPT בנובמבר האחרון, אשר שולבה מאז בגרסה מוגבלת של מנוע החיפוש במיקרוסופט, בינג.
גוגל ספגה ביקורת מעובדים וממשקיעים לאחר ההשקה הראשונית הכושלת של בארד, אשר נראה כי מיהרה מדי להתחרות עם ChatGPT. לפי הפוסט שפרסמה גוגל, שאלות לבארד יכללו גם כפתור “Google it”, אשר בלחיצה עליו תיפתח כרטיסייה חדשה לדף חיפוש בגוגל. הפורמט הנוכחי של בארד הוא תכונה משלימה לחיפוש, אמר דובר החברה.
גוגל מזהירה כי בארד עלול גם לטעות. כאשר משתמש פותח אותו, קופצת הודעה המציינת "בארד נמצא בניסוי, אנא זכור שבארד עשוי לתת תגובות שאינן מדויקות או אינן הולמות". אם למשתמש יש ספק הוא מופנה לבדוק את התגובות של בארד באמצעות כפתור "Google It". גם לצד הטקסט של התשובות מופיעה ההודעה שהמידע "אינו מייצג את הדעות של גוגל". הסיאו וקולינס ציינו כי הם השתמשו בבארד לכתיבת הפוסט שלהם, והודו ש"זה לא תמיד הסתדר". אי דיוקים הם הבעיה הגדולה כיום במודלים גדולים של שפה.
בחודש שעבר ביקשו מנהלי החברה מכל העובדים לסייע במאמץ של כלל החברה ולעזור לתקן את התשובות השגויות של בארד. "למרות שלימודי LLM הם טכנולוגיה מרגשת, הם אינם חפים מטעויות" נכתב בפוסט. "לדוגמה, מכיוון שהם לומדים ממגוון רחב של מידע המשקף הטיות וסטריאוטיפים בעולם האמיתי, אלה מופיעים לפעמים בתפוקות שלהם. והם יכולים לעיתים לספק מידע לא מדויק, מטעה או כוזב תוך הצגתו בביטחון". השאילתות בארד יכללו אפשרות של משוב באמצעות "אגודל למעלה" ו"אגודל למטה".
מנכ"ל גוגל, סונדאר פיצ'אי, כתב היום (ג') במזכר לעובדים כי המשוב של המשתמשים הוא קריטי להצלחת הצ'אטבוט. "80,000 עובדים השתתפו בבדיקת בארד", כתב. הוא גם ציין ש"דברים צפויים להשתבש, אך המשוב מהמשתמשים הוא קריטי לשיפור המוצר והטכנולוגיה הבסיסית שלו".