סגור
באנר דסקטופ כלכליסט טק
סאטיה נאדלה מנכ"ל מיקרוסופט
סאטיה נאדלה, מנכ"ל מיקרוסופט (צילום: יחצ)

מנכ"ל מיקרוסופט: עיתונאים צריכים לאמץ AI

סאטיה נאדלה אמר בכנס בלונדון שמוצרי בינה מלאכותית גנרטיבית כמו ChatGPT מטלטלים את התעשייה ואת הדרך בה אנשים מקבלים מידע, אבל עיתונאים צריכים לאמץ את השיבושים האלה. במקביל, הוא הפחית מהחששות לגבי השימוש בטכנולוגיה כדי להתערב במערכות בחירות. "התערבות בבחירות הייתה קיימת לפני ה-AI"

מנכ"ל מיקרוסופט סאטיה נאדלה טען כי עיתונאים ומוציאים לאור צריכים לברך ולאמץ את השיבושים שיוצרת בינה מלאכותית במערכת המידע. הוא אמר את הדברים אתמול (ב') באירוע בלונדון, שבועות ספורים לאחר שבניו יורק טיימס הגישו תביעה נגד השימוש של חברת OpenAI, בה השקיעה מיקרוסופט, בתכנים מהעיתון כדי להכשיר את מודלי ה-AI שלה.
אולם, לפי נאדלה, מוצרי בינה מלאכותית גנרטיבית כמו ChatGPT שפותח בידי OpenAI מטלטלים את התעשייה ואת הדרך בה אנשים מקבלים מידע. "בוא נודה בכך, יש ריכוז ממשי של כוח במספר מצומצם של תחומים, נכון? מנוע חיפוש הוא אחד מהם, פיד חדשות הוא מקום נוסף. שניהם עשויים לעבור טלטלה", אמר, במה שנתפס כעקיצה נגד גוגל ומטא, היריבות של מיקרוסופט ששולטות בתחומים הללו. "מה שקורה למערכת המידע כשיש ריכוז גבוה הוא הדרדרות", הוסיף. לפיכך, עיתונאים ומוציאים לאור צריכים "לאמץ ולברך" בינה מלאכותית גנרטיבית.
נאדלה התייחס בדבריו גם לחשש שההתפתחויות האחרונות בטכנולוגיית בינה מלאכותית יפריעו לניהולן התקין של מערכות בחירות המתוכננות להתקיים השנה ברחבי העולם. "התערבות בבחירות הייתה קיימת לפני ה-AI", אמר וציין כי אפשר ללמוד מתקריות קודמות. עוד הוסיף כי האיום של הפצת מידע שגוי במערכות הבחירות קשור יותר לפיקוח על פלטפורמות המדיה החברתיות מאשר לפיתוח של מוצרי בינה מלאכותית גנרטיבית שעשויים לשמש ליצור תכנים כוזבים. "צריך להיות פיקוח אמיתי על ההפצה. כל אחד יכול לכתוב משהו בקובץ וורד, אבל השליטה היחידה שיש לחברה האנושית היא בדרך שבה המידע מופץ, ושם חייבת להיות לנו יותר בקרה", סיכם.