סגור
באנר דסקטופ כלכליסט טק
מייסד OpenAI סם אלטמן בכנס המפתחים הראשון של החברה
מייסד OpenAI סם אלטמן. השווה את עצמו ללא פחות מאבי פצצת האטום רוברט אופנהיימר (צילום: JUSTIN SULLIVAN / GETTY IMAGES NORTH AMERICA / AFP)

ניתוח
OpenAI מציגה: תיאטרון של אחריות בשקל

העיכוב בהפצת הכלי לשיבוט קולי, שעליו הכריזה OpenAI, נועד בעיקר כדי לחזק בעיני הציבור את הדימוי שלה כמבוגר האחראי בזירת הבינה המלאכותית. במובנים רבים זה מקל עליה לפתח עוד מוצרים הרסניים

חברת OpenAI הודיעה השבוע כי פיתחה כלי המשבט את קולו של אדם בפשטות - אך לא תשחרר אותו לציבור הרחב כסימן לגישתה "הזהירה והמושכלת". החברה ציינה בבלוג כי את הכלי, Voice Engine פיתחה בשלהי 2022, והוא מאפשר ליצור טקסט לדיבור סינתטי שמבוסס על קטע מוקלט מקורי של 15 שניות בלבד. החברה ציינה באתר כי תכננה להשיק פיילוט למפתחים בחודש החולף, אך בשל ההשלכות האתיות, החליטה להימנע מכך לעת עתה. "בהתאם לגישה שלנו לבטיחות בינה מלאכותית וההתחייבויות היזומות שלנו, אנו בוחרים לחשוף את המוצר בתצוגה מקדימה - אך לא לשחרר באופן נרחב את הטכנולוגיה בשלב זה", כתבו בחברה והוסיפו כי הם "מקווים להתחיל דיאלוג על פריסה אחראית של קולות סינתטיים, וכיצד החברה יכולה להסתגל ליכולות החדשות הללו".
הפוסט נראה מרשים ביכולות ובאיכויות. מצד אחד הוא מציג חברה חדשנית ויצרנית בחוד החנית של הבינה המלאכותית, ומצד שני חברה מפוכחת שמבינה את האחריות המונחת על כתפיה. בהתאם הוא גם זכה להד תקשורתי חיובי - מרוץ וגם אחריות, הבטחה וגם איום. לא רע עבור יום עבודה.
OpenAI היא לא החברה הראשונה שמייצרת כלי לשיבוט קול באופן משכנע. בשוק קיימים כלים כאלו והבעייתיות שלהם מתועדת בהרחבה: על כך שבאמצעותם ניתן לפרוץ לחשבונות בנק, לבצע הונאות טלפוניות, לחקות אדם אהוב או פוליטיקאי. החשש מכל זה קיבל תשומת לב מיוחדת במאי 2023 כשוועדת הסנאט לבנקאות הנחתה את הבנקים הגדולים בארצות הברית לעדכן את אמצעי האבטחה שלהם, כדי שיוכלו להתמודד עם הסכנה שבאימות מבוסס קול.
אם כל הסיכונים ידועים מדוע ש־OpenAI - חברה שקמה כהגדרתה "לתועלת הציבור" - תשקיע בכלל מאמץ לפתח כלי מסוג זה? בבלוג החברה מציגה את הסיבות: כלי לשיבוט קול יכול לסייע לאנשים שלא יכולים לדבר, לעזור למטופלים להשיב את קולם אחרי שנוצרה אצלם פגיעת דיבור ואפילו לשרת יוצרים בתרגום תוכן ובשימור של מבטא מקומי.
אך עד כמה שיתרונות אלו ברורים, כך גם הסכנה גדולה, ולפני שהחברה תאפשר גישה לכלי כזה היא קודם כל תבחן מערכת כללים שתמנע ניצול לרעה שלו, כולל ניסוח מנגנוני הסכמה קשיחים ויצירת "חותמות מים" דיגיטליות, שיבטיחו זיהוי ברור שהקול הנשמע הוא סינתטי ואינו מקורי. אף שהדברים נשמעים ישרים וברורים, יש לקרוא את הפוסט של OpenAI עם קורט של ציניות כמהלך שיווקי - תיאטרון של אחריות.
כבר יותר משנתיים שמוצרי החברה, בין אם אלה ChatGPT או Dall-E-2, משווקים לציבור הרחב בזמן שהם מייצרים אותן בעיות של זיהוי והסכמה בשימוש. למעשה, מגוון הסכנות והבעיות סביב המוצרים והמודלים שבבסיסם פועלת החברה כבר התממשו: התוצרים שמבוססים על ChatGPT ו־Dall-E-2 מפירים באופן סיטונאי זכויות יוצרים ונעשים ללא כל הסכמה של היוצרים המקוריים; התוצרים כוללים הטיות וסטריאוטיפים ומבססים את אלו יותר בחברה; הכלים מעוותים מידע, עם נטייה להמציא דברים; ; וההון הרב שנדרש כדי לייצר ולהפעיל את המודלים הללו מביא לכך שהתחום סובל מריכוז כוח.
מה OpenAI עושה כדי להתמודד עם טענות אלו? ההפך הגמור מההצעות הרבות שהונחו לפניה. היא אינה פועלת בשקיפות בנוגע למערך הנתונים שעליו היא מאמנת את מודלים הבינה המלאכותית ולמידת המכונה שלה, היא לא מאפשרת למפתחים מצד שלישי גישה למידע שהיא מחזיקה (ל־API שלה) והיא לא פיתחה "חותמות מים" דיגיטליות יעילות שיוטבעו על התוצרים הסינתטיים (אף שהבטיחה) - והיא גם נלחמת בכל האמנים, הסופרים, המאיירים והעיתונים שתובעים אותה על הפרת זכויות קניין ויוצרים.
אז מדוע קול משובט וסינתטי מסוכן יותר מטקסט ותמונה כאלה? תשובה לשאלה זו היא המפתח: OpenAI מאמינה שהיא ממוקמת בעמדה הטובה ביותר בתחום הבינה המלאכותית, והיא זו גם שרוצה להגדיר את הקווים האדומים בתחום. להסביר לנו מה מסוכן ומה לא, מה מייצר נזק ומה לא, איזו פגיעה ראויה לתשומת לב ואיזו לא. הקו האדום ששירטטה כעת בנוגע לסכנה שבשיבוט הקולי הוא כמעט רנדומלי, ובעיקר נותן מענה לתחושה כללית רווחת בציבור כי הוא מייצר סיכונים גדולים, במיוחד בשנה זו של בחירות בארצות הברית.
עיתוי הפוסט שבו החברה מציגה עצמה כחברה של מבוגרים אחראים, על מוצר שפיתחה כבר לפני כמעט שנתיים, אינו מקרי, אלא מנסה לתת מענה לביקורת המתגברת הדורשת לפקח על התחום.
הפוסט הוא גם חלק מפעילות גדולה יותר של החברה שבו היא קוראת מצד אחד לפיקוח ושיתוף פעולה עם רגולטורים, ומצד שני דורשת שהכל ייעשה בתנאים שלה. כחלק ממדיניות זו מנכ"ל החברה סם אלטמן ביצע בשנה החולפת סיבוב הופעות ברחבי ארצות הברית, בריטניה ואירופה, כדי לקדם את האופן הנדרש שבו, לדעתו, יש לפקח על הפיתוחים של החברה. כמובן שאלטמן עושה זאת בזמן ש־OpenAI לא מפסיקה לפתח, להשיק מוצרים חדשים ולעדכן אחרים.
מסעות ההסברה נועדו להפגין מצג לפיו החברה מודאגת ודואגת לבטיחות, אך יש בהם ממד חלול, שמטשטש את העובדה כי החברה פועלת כדי לקדם קודם כל את האינטרסים שלה, ולא של הציבור הרחב - כפי שרגולטורים ונבחרי ציבור רואים זאת. כך למשל זמן קצר אחרי שאלטמן העיד בסנאט האמריקאי והדגיש את הצורך ברגולציה, אמר בשיחה עם כתבים כי תקנות האיחוד האירופי בנושא בינה מלאכותית מחמירות מדי ולכן החברה שלו עלולה "להפסיק לפעול" ביבשת. החקיקה האירופית כוללת דרכים מבוססות וידועות לצמצום נזקים - כמו דרישה לשקיפות גדולה בנוגע למערכי הנתונים, מנגנוני ההסכמה וההתערבות, ואכיפת חוקים קיימים בנושאי זכויות קניין.
לצד זאת המאמץ של OpenAI לקדם פיקוח על המוצרים שלה עטוף בנרטיב מנוסח היטב ולפיו אותם כלים יהיו בעתיד "סכנה למין האנושי", ורק חברה אחראית שכמותה יכולה להבטיח שלא ייעשה בהם שימוש לרעה. המאמץ של אלטמן ו־OpenAI לעבוד תוך יצירת מצג שווא של קץ המין האנושי, גורמת למוצרים להיתפס כחזקים מאוד, ובכך תורמים לדימויה בציבור.
זה לא שכלי שמשבט קול אינו מסוכן - אך הוא לא מסמן את קץ האנושות. מה זה תמונה חמודה של חתולים שנוצרת בסגנון מובהק של אמן חי, שמייצרת זיהום סביבתי או מבססת סטריאוטיפים - בהשוואה לסוף העולם?
גישה זו מייצרת למפתחי OpenAI דימוי של בעלי כוחות־על גרסה מודרנית של פרומתיאוס שמסר לאדם את האש. מפתיע אם כך שאלטמן השווה עצמו לרוברט אופנהיימר, אבי פצצת האטום, ואת החברה שלו לפרויקט מנהטן?
ההשוואה לאופנהיימר ולפרומתיאוס מאפשרת לאלטמן ול־OpenAI עוד כמה מסקנות בלתי נמנעות: פרומתיאוס נתן את האש לאדם כדי שזו תגן עליו, אופנהיימר פיתח את האטום מתוך רצון לסיים את מלחמת העולם השנייה. השניים גם נשאו על גבם את העונש הפיזי (פרומתיאוס) או הנפשי (אופנהיימר) על מעשיהם. כך, לתפיסתו, נושאים אלטמן ו-OpenAI את האחריות (לפתח למען תועלת הציבור) בזמן שמילאו את חובתם (וריסנו את עצמם מלהשיק מוצר אחד שבחרו), ותוך כך מחסנים עצמם מחיצי הביקורת.