סגור
סם אלטמן מייסד ומנכ"ל OpenAI
מייסד ומנכ"ל OpenAI סם אלטמן. שיקולי האתיקה נדחקו לפינה (צילום: בלומברג)

מחוללי המהפכה
דרושה שקיפות: אסור להתעלם מהשאלות האתיות סביב מודל GPT

המעבר של חברת OpenAI ממחקר לפעילות עסקית בסביבה תחרותית מעלה חששות אתיים מהותיים באשר לאופן שבו אוסף מודל GPT את המידע והשימוש שנעשה בו

בשלהי מרץ נפל דבר. חברת OpenAI השיקה את הגרסה העדכנית ביותר של מודל השפה שלה – GPT–4. ההשקה התרחשה שלושה חודשים בלבד אחרי שפרסמה גרסה קודמת של המודל באופן נגיש ולשימוש הציבור הרחב באמצעות ChatGPT. אלו היו חודשים סוערים במיוחד. בפרק הזמן הקצר הזה הספיקה החברה הצעירה מסן פרנסיסקו להשיק את המוצר לכ־100 מיליון משתמשים, לגייס 10 מיליארד דולר, לשלב את המוצר הניסיוני במגוון כלים של ענקית הטכנולוגיה מיקרוסופט ולשנות לחלוטין את משימת חייה. ממעבדת בינה מלאכותית ללא כוונות רווח או בעלי מניות, שמטרתה "לקדם אינטליגנציה דיגיטלית באופן שתועיל לאנושות כולה" בקוד פתוח, הפכה OpenAI לתאגיד שפועל למטרות רווח, עם בעלי מניות, שמשחרר מוצרים בקוד סגור.
ההכרזה על GPT–4 ופריסתו הזריזה לוו בשני מסמכים ארוכים במיוחד שפרסמו OpenAI ובעלת המניות הגדולה שלה מיקרוסופט, כל אחת בנפרד. הראשון הוא מסמך טכני בן 98 עמודים של OpenAI, והשני 155 עמודים של מיקרוסופט. שני הטקסטים עמוסים לעייפה ברעיונות, על איך המודל מצליח בבחינת לשכת עורכי דין, יודע לקודד או מציע מתכונים על בסיס מבט בתצלום של מרכיבי מזון.
אבל ההתלהבות הציבורית והתקשורתית הסיטה את תשומת הלב מכך שבמסמכים האלו היה חסר דבר אחד מהותי: מידע טכני. חסך שמעיד על מעבר של החברה מפעילות מחקר לפעילות עסקית, ומ־GPT כמודל ניסיוני למוצר וקניין.
המסמך של מיקרוסופט, השותפה המרכזית, מתעסק בינתיים במשאלות לב וטוען כי GPT–4 גילה "ניצוצות של בינה מלאכותית כללית", זאת אומרת אינטליגנציה שווה או עליונית מזו של האדם. אף שהטקסט לא זכה לביקורת עמיתים ונראה כהכלאה בין ספרות מעריצים למודל סטטיסטי, הוא בעצמו כולל הודאה כי למודל יש בעיות בכיול, אמון, זיכרון לטווח ארוך, התאמה אישית ותכנון; שהוא סובל מקפיצות מושגיות, היעדר שקיפות, כשלים קוגניטיביים וחוסר רציונליות; ושהוא מתקשה בפרשנות ובשמירה על עקביות.
"זה תחרותי שם בחוץ. GPT–4 לא קל לפיתוח, נדרשה עבודה משותפת של כמעט כל OpenAI במשך זמן רב מאוד כדי לייצר את הדבר הזה", אמר המדען הראשי של החברה איליה סוצקבר למגזין The Verge, "יש הרבה חברות שרוצות לעשות את אותו הדבר, אז מהצד התחרותי, אתה יכול לראות בזה התבגרות של התחום". אבל סוצקבר לא עצר שם, אלא המשיך והסביר כי ב־OpenAI ממש טעו כשפעלו בהתחלה כארגון קוד פתוח. "אני מצפה לחלוטין שבעוד כמה שנים זה יהיה ברור לחלוטין לכולם ש־AI בקוד פתוח זה פשוט לא חכם". בינתיים מיקרוסופט, שמשתמשת ב־GPT-4 במנוע החיפוש שלה בינג, בדפדפן Edge, והוסיפה אותו לוורד ולאקסל, פיטרה לאחרונה את כל הצוות האתיקה בתחום הבינה המלאכותית שלה.
ההתבטאויות של סוצקבר כמו שני המסמכים ה"טכניים" של מיקרוסופט ו־OpenAI יצרו לא מעט המולה. רבים ציינו כי שיטות הפעולה של החברות מעידות שמה שמפותח שם הוא "מוצר", ואיננו "מדע" בשום צורה, ושהגישה הכללית מעידה כי הן שמות מעט מאוד דגש על אתיקה בנוגע לפיתוח מוצרים בצורה אחראית, ומותירות מעט מאוד מקום – אם בכלל – לביקורת מצד הקהילה המדעית. הרי בלי מידע על נתונים, ארכיטקטורת המודל והאימון, אין שום דרך להבין כיצד המודל מגיע לתוצאות שאליהן הוא מגיע. אין גם דרך לעמוד על העלות הסביבתית והאנושית של פיתוח הכלי, או להעריך את עמידות מעקות הבטיחות שהונחו (וכיצד), כדי למנוע ניצול לרעה של הכלי או תפוצה של מידע מזויף. כל זה, נזכיר, מתרחש בציניות גדולה דווקא בחברה שהוקמה במטרה מפורשת להיות "פתוחה" ו"למען האנושות כולה".