סגור
באנר דסקטופ כלכליסט טק
OpenAI ChatGPT בינה מלאכותית
השחקניות המרכזיות בתחום לא מורידות את הרגל מהגז ולכולנו יש סיבה טובה לדאגה (צילום: רויטרס)

ניתוח
בשם התחרות - OpenAI זונחת את המאמצים לפיתוח אחראי של בינה מלאכותית

השחקניות המרכזיות בתחום ממשיכות להציג חידושים שמיועדים לשימוש הכלל. וזה בדיוק מה שצריך להדאיג את כולנו. כי בשעה שהן ממשיכות להשקיע בחידושים, הן מצמצמות את ההשקעה במאמצים שנועדו להבטיח שמוצרי ה-AI החדשים לא ייגרמו יותר נזק מתועלת

בשבוע שעבר, OpenAI וגוגל קיימו, בנפרד, אירועי השקה שבמהלכם חשפו את החידושים והמוצרים העדכניים ביותר שלהן בתחום הבינה המלאכותית הגנרטיבית (GenAI). OpenAI הציגה מודל חדש, GPT-4o, שיהיה זמין גם למשתמשים לא משלמים של ChatGPT, מסוגל לקבל קלט בדמות טקסט, קול או תמונה, וניחן ביכולות שיחה אנושיות במיוחד ובידע אנציקלופדי נרחב. גוגל חשפה גם היא מודל חדש, Gemini 1.5, והכריזה על שילוב יכולות GenAI במנוע החיפוש שלה, תחילה בארה"ב ובהמשך בשאר העולם.
השחקניות המרכזיות בתחום לא מורידות את הרגל מהגז, וממשיכות להציג חידושים ומוצרים משמעותיים שמיועדים לשימוש הכלל. מדובר במשהו שצריך להדאיג את כולנו. כי בשעה שהן ממשיכות להשקיע בחידושים, הן מצמצמות את ההשקעה במאמצים שנועדו להבטיח שמוצרי ה-AI החדשים לא ייגרמו יותר נזק מתועלת. אם המגמה הזו תימשך, לכולנו יש סיבה טובה מאוד לדאגה.
OpenAI קיוותה לגרוף כותרות בשבוע שעבר בזכות אירוע ההשקה שלה. זה קרה, אבל את אלו עקפו במהרה התהפוכות בתוך החברה. בשלישי בלילה הודיעה החברה שהמייסד והמדען הראשי, ד"ר איליה סוצקבר, עוזב על מנת לקדם "פרויקט בעל משמעות אישית". סוצקובר, בעל אזרחות ישראלית, היה בין יוזמי המהלך הכושל להדחת המייסד והמנכ"ל סם אלטמן לפני חצי שנה (וימים לאחר מכן בין הפועלים להחזרתו לחברה), אך הפרישה ככל הנראה לא קשורה ישירות, או לא קשורה רק, לחלקו במהלך זה אלא מחוברת יותר למניעים שמאחוריו: חשש שאלטמן לא נוקט מספיק מהלכים על מנת להבטיח פיתוח והטמעה בטוחים של מוצרי החברה.
הדבר התברר לא מפרישת סוצקבר עצמו, אלא מהודעת ההתפטרות, שעות מאוחר יותר, של יאן לייקה, שהוביל לצד סוצקבר את הצוות שאחראי על התנהגות אחראית של בינה מלאכותית. הצוות, שכונה Superalignment Team, הוקם ביולי 2023 על מנת לקדם פריצות דרך שיאפשרו לאנושות "לשלוט ולהכווין מערכות AI חכמות הרבה יותר ממנה", לפי הודעת החברה. החברה התחייבה להקדיש לפעילותו 20% ממשאבי המחשוב שלה.
ביום שישי, הסביר לייקה בהרחבה את הסיבה לעזיבתו. "אני לא מסכים עם הנהגת OpenAI בנוגע לעדיפויות הליבה של החברה מזה זמן מה, עד שהגענו בסוף לנקודת שבירה", הוא כתב ב-X (לשעבר טוויטר). "אני מאמין שאנחנו צריכים להקדיש יותר רוחב פס על מנת להתכונן לדור הבא של המודלים, בהבטים כמו אבטחה, ניתור, מוכנות, בטיחות, חסינות, השפעות חברתיות ונושאים קשורים. אלו בעיות שקשה להתמודד איתן, ואני חושש שאנחנו לא במסלול הנכון על מנת לעשות זאת. במהלך החודשים האחרונים הצוות שלי הפליג נגד הרוח. לפעמים נאבקנו כדי לקבל כוח מחשוב, ונעשה קשה יותר ויותר לבצע מחקר קריטי. בניית מכונות שחכמות מהאנושות היא יוזמה מסוכנת מטבעה. ל-OpenAI יש אחריות עצומה בשם כל האנושות. אבל בשנים האחרונות, תרבות של בטיחות נכנסה למושב האחורי של מוצרים נוצצים. כבר עבר הזמן שבו עלינו להיות רציניים להחריד לגבי ההשלכות של בינה מלאכותית כללית (AGI). אנחנו חייבים לתעדף מוכנות, רק כך נוכל להבטיח ש-AGI תטיב עם כל האנושות".
בדבריו מתייחס לייקה לחששות שהועלו בחודשים שאחרי חשיפת ChatGPT, שלפיהם מודלי AI מתקדמים יותר עלולים להיות בעלי יכולות דומות לאלו של אינטליגנציה אנושית, או לעלות עליה, ופעילותם יכולה לייצר נזקים משמעותיים למין האנושי עד כדי הפיכתו ללא רלוונטי או השמדתו. חששות אלו היו במידה רבה ביסוד הקמת OpenAI ב-2015, והסיבה לכך שהחברה הוקמה תחילה כארגון ללא כוונות רווח. המיצוב האתי הזה גם סייע ל-OpenAI לגייס את טובי החוקרים בתחום שאפשרו לה להגיע לפריצות הדרך המשמעותיות שלה.
אבל בקפיטליזם, כמו בקפיטליזם, בחברה הבינו במהרה שעל מנת להתחרות בענקיות טכנולוגיה כמו גוגל, מטא ומיקרוסופט יש צורך במימון של עשרות מיליארדי דולרים, אפילו מאות מיליארדי דולרים. מימון כזה ניתן להשיג רק ממשקיעים שמצפים לראות החזר השקעה, ובשביל זה מודל ללא כוונות רווח לא עובד. ב-OpenAI יצרו פתרון כלאיים והקימו חברה לכוונות רווח כחברה בת של המוסד ללא כוונות רווח, שנשלטה על ידי הדירקטוריון של מוסד זה.
הכלאה זו אפשרה ל-OpenAI לגייס סכומי כסף משמעותיים, להאיץ פיתוחים ולהשיק מוצרים מחוללי מהפכה דוגמת Dall-E ו-ChatGPT. אבל היא לא ניטרלה את העימות המובנה בין השאיפות הקפיטליסטיות להתרחב ולצמוח כמה שיותר מהר, לבין הרצון של הדירקטוריון למתן את הצמיחה על מנת להבטיח פיתוח והטמעה בטוחים. סאגת ההדחה הכושלת של אלטמן בנובמבר שעבר היא, במידה רבה, התפרצות של המתח בין שני הקצוות הללו. סיומה, חזרת אלטמן לחברה והחלפת הדירקטוריון, מלמד על ניצחון לצד הקפיטליסטי במאבק, זה שמתעדף צמיחה מהירה על פני בטיחות.
הדברים של לייקה מצביעים על כך שמאז שחזר אלטמן לחברה, סדרי העדיפויות הפנימיים השתנו מהותית וצוות שרק חודשים ספורים קודם לכן הובטחו לו 20% ממשאבי המחשוב שלה הוזז הצידה ופעילותו שונמכה. וכמו כדי להוכיח את טענות לייקה, בסמוך לדברים הנוקבים שפרסם ב-X אישרה OpenAI שצוות ה- Superalignment פורק עם עזיבת ראשיו, ושהחוקרים שהועסקו בו ופעילותו ייספגו לתוך צוותים אחרים בחברה.
התפתחויות אלו מצטרפות לעזיבות נוספות של חוקרים שעסקו בתחום הבטיחות והאמינות של AI. באפריל, שני חוקרים בצוות, ליאופולד אשנברנר ופאוול איסמאילוב, פוטרו בטענה שהדליפו סודות חברה. חוקר נוסף, וויליאם סאונדרס, פרש בפברואר. קולין או'קיף, חוקר מוביל בתחום המדיניות, עזב באפריל, וכך גם דניאל קוקוטאליו, שכתב כמה מאמרים מדעיים על סכנות ה-AI, והסביר שעזב מכיוון ש"איבד אמון ש-OpenAI תתנהג באחריות בנוגע ל-AGI".
OpenAI לא זונחת לחלוטין את המאמצים לפיתוח אחראי של בינה מלאכותית, אך בפירוש מורידה אותם מטה מטה בסולם התיעדופים שלה, לטובת מהירות והצגת פיתוחים חדשים. זה לא היה אמור להיות ככה. OpenAI היתה אמורה להיות התשובה האחראית, הלקח שלמדנו מניסיון העבר כשחברות למטרות רווח השיקו מוצרים מהר במטרה להשתלט על השוק, בלי לתת מחשבה מספקת להשלכות שליליות אפשרויות, האנטי-תזה ל"זוז מהר ולשבור דברים" של מארק צוקרברג
אבל כוחות השוק, הלחצים והצרכים שנובעים מהרצון להתחרות בליגה של הגדולים, כנראה חזקים יותר. אם OpenAI זונחת את הדאגה לפיתוח אחראי ובטוח, אין מקום לפתח ציפיות מחברות כמו גוגל ומטא שהשאירו את הדאגה הזו מאחור לפני שנים רבות (זוכרים שפעם המוטו של גוגל היה Don’t be evil?), או מעולם לא טרחו להתעסק אתה.
יש שמעריכים שמהפכת ה-AI תהיה המהפכה הטכנולוגית הגדולה ביותר מאז האינטנרט, אולי אפילו גדולה ממנה. הדרך היחידה להבטיח שהמהפכה הזו תשרת בסופו של דבר את כלל האנושות, שלא תהפוך למפלצת שיצאה משליטה, היא באמצעות פיתוח אחראי ומדוד, שמתעדף אמינות, אחריות ובטיחות גם במחיר של השקות מוצרים איטיות יותר. לא עשינו את זה עם הרשת, וקיבלנו שירותים ואתרים שהפכו למצע להפצת פייק ניוז ושקרים, כלי לפילוג, הסתה והקצנה של אוכלוסיות, אמצעי שבו שחקנים רעים מנסים, ובמידה רבה גם מצליחים, להתערב בהליכים דמוקרטיים במדינות יריבות לערער את החוסן האזרחי והביטחוני שלהן.
בינה מלאכותית כללית תוכל לחולל נזקים חמורים בהרבה אם לא תפותח ותונגש בצורה אחראית. איך שזה נראה כרגע, מבין הגורמים המובילים בתחום אין אף אחד שהדבר הזה חשוב לו יותר מהשקת המודל והמוצר הבאים.