סגור
באנר דסקטופ כלכליסט טק
אלון מאסק X 24.7.23
אלון מאסק ולוגו X (צילום: Alain JOCARD / AFP)

עם מידע בזמן אמת מ-X: התשובה של מאסק ל-ChatGPT ובארד

חברת הבינה המלאכותית של אלון מאסק, xAI, חשפה את מודל ה-AI "גרוק". לדבריה, המודל מיועד "לענות על שאלות מפולפלות שנדחות על ידי רוב מערכות ה-AI האחרות". בשלב זה גרוק נופל בביצועיו ממודלים מתקדמים, אך מתעלה על מודלים בסיסיים. ב-xAI אומרים שגרוק נמנע מהצגת מידע שגוי, אולם הוא מסתמך על X בה מוצג לא מעט פייק

חברת הבינה המלאכותית של אלון מאסק, xAI, חשפה הלילה את התשובה שלה ל-ChatGPT ובארד, מודל שפה גדולה (LLM) עם טוויסט ייחודי אך בעייתי: מידע בזמן אמת מ-X (לשעבר טוויטר). "הוא טוב יותר מכל המודלים האחרים ברמת המחשוב שלו", טוענת החברה בהודעה לעיתונות. בתור התחלה זמין המודל רק למספר מצומצם של משתמשים בארה"ב.
למודל החדש קוראים גרוק (Grok), מילה שטבע סופר המדע הבדיוני רוברט היינליין בספרו הקלאסי מ-1961 גר בארץ נוכרייה (בתרגומה לעברית מ-1980 בחרה דפנה לוי לתרגם את המילה ל"גריקה"), שמשמעותה "להבין עד כדי כך שמושא התצפית הופך לחלק מן הצופה". לכאורה, בחירה שמתיימרת להעיד על יכולות גבוהות של המודל החדש.
ההודעה של xAI גם מקשרת אותו ליצירת מד"ב אחרת. "גרוק עוצב לפי מדריך הטרמפיסט לגלקסיה, ולכן מיועד לענות על כל דבר וקשה יותר, אפילו להציע אילו שאלות לשאול", נכתב. "גרוק פותח כדי לענות על שאלות עם קצת שנינות ויש לו צד מרדני, אז בבקשה אל תשתמשו בו אם אתם שונאים הומור. הוא גם יענה על שאלות מפולפלות שנדחות על ידי רוב מערכות ה-AI האחרות".
לדברי החברה, גרוק עדיין בשלב ביטא וסיים רק חודשיים של אימונים, אך היא צופה שהוא יציג שיפור משמעותי משבוע לשבוע. לפי כמה מבדקים תקניים שערכה החברה, גרוק מציג ביצועים טובים יותר מאלו של מודלים מבוססים כמו GPT-3.5 של OpenAI ו-LLaMA 2 של מטא. עם זאת, נופל משמעותית בביצועיו מאלו של המודלים המתקדמים ביותר, ובראשם PaLM 2 של גוגל (המודל שמאחורי בארד) ו-GPT-4. זאת, לדברי xAI, מפני שאלו אומנו עם מספר נתונים גדול הרבה יותר ועושים שימוש במשאבי מחשוב רבים יותר.
ב-xAI אומרים ששילבו בגרוק כלים ויכולות שנועדו למנוע הצגת מידע שגוי. עם זאת, ההסתמכות על מידע בזמן אמת שמסופק מ-X היא לכל הפחות סיבה לדאגה. הרשת החברתית, במיוחד תחת מאסק, סובלת מכמויות רבות של מידע שקרי ותכני שטנה והסתה, שהפלטפורמה עצמה מתקשה בהתמודדות עמן. מידע זה יכול להשפיע על אמינות התשובות שמספק המודל, ולגרום לייצור תשובות שקריות, מסיתות ואף מסוכנות.