כשבינה מלאכותית מעדיפה את עצמה ומתברר שגם אנחנו
בינה מלאכותית למדה מאיתנו מה אנחנו אוהבים – ועכשיו היא מגישה לנו את זה בגרסה מהונדסת ומלוטשת. אנחנו בוחרים בה שוב ושוב, ובכל בחירה כזו אנחנו מצמצמים את עצמנו קצת יותר. הבעיה היא לא שלא נשים לב – הבעיה היא שזה יתחיל להרגיש טבעי
מחקר שפורסם לאחרונה (בכתב העת PNAS) מצא עדות לכך שמודלי שפה גדולים (LLM) נוטים להעדיף תוכן שנכתב על ידי מודלים אחרים, על פני תוכן אנושי. בבחינות בהן התבקשו לבחור בין מוצרים, תקצירי מאמרים או סרטים, המודלים בחרו באופציה שנוצרה על ידי מודל אחר בשיעור ההעדפה הנע בין 56% ל-89% מהמקרים, בהתאם למשימה ולמודל. החוקרים מצביעים על תופעה המכונה pro-AI bias, נטייה של מודלים להעדיף פלטים אופייניים למודלים אחרים. המשמעות: כאשר מערכות בינה מלאכותית משמשות לקבלת החלטות, סינון קורות חיים, בחירת מוצרים באתרי מסחר, ושימושים נוספים - התוכן שנוצר על ידי AI מקבל יתרון מובנה.
לפני מספר ימים פרסם ה-New York Times חידון אינטראקטיבי שבחן איזה סוג של טקסט הקוראים מעדיפים: כזה שנוצר באמצעות בינה מלאכותית או כזה שנוצר על ידי אדם (סופרים/ות ועיתונאים/ות מוערכים ובעלי שם). הקוראים קיבלו זוגות של קטעים קצרים מאותו ז׳אנר, מבלי שידעו מי כתב מה, והתבקשו להכריע איזה טקסט הם מעדיפים. יותר מ־86 אלף אנשים השתתפו בחידון, והתוצאה הייתה מעניינת: במרבית הקטגוריות הקוראים העדיפו את הקטע שנכתב על ידי AI. כלומר, במבחן עיוור בו תוצר של מכונה הוצב מול כתיבה אנושית, ההעדפה נטתה למכונה. הממצא בגוף ראשון הזה מצטרף לשורה של מחקרים המצביעים על מגמה דומה.
אם כן, בינה מלאכותית מעדיפה את עצמה, ומתברר שגם אנחנו. שתי התופעות הללו, כל אחת בפני עצמה, מעניינות. אך יחד הן יוצרות לולאה סגורה ומסוכנת: תוכן שנוצר על ידי AI זוכה ליותר מעורבות וחשיפה, מה שמזין אותו חזרה אל מאגרי הנתונים מהם המודלים לומדים. הדור הבא של המודלים מתבסס על הנתונים הללו ומייצר עוד מאותו הדבר. חוקרים מאוניברסיטת אוקספורד קראו לתופעה זו ״קריסת מודל״ (Model Collapse): מודלים המתאמנים על תוכן שנוצר על ידי AI נוטים להידרדר, המגוון מצטמצם, הזנבות של ההתפלגות נעלמים, והתוצרים מתכנסים למרכז.
מה שמדאיג באמת הוא לא רק מה שקורה בתוך המכונה, אלא מה שקורה לנו. ה- AI לא המציא את ה״ממוצע״ הזה. מודלי שפה למדו ממיליארדי פלטים אנושיים (טקסטים, תמונות, אינטראקציות) וחילצו מהם את מה שרוב האנשים מעדיפים, רוב הזמן. כשאנחנו בוחרים ב-AI במבחן עיוור (כמו בחידון של ה-NYT), אנחנו לא בוחרים במשהו זר אלא בטעם שלנו עצמנו בגרסתו הסטטיסטית, וכך אנו נעים במסע הדרגתי אל עבר הממוצע. וממוצע, מעצם הגדרתו, מחליק את הקצוות.
חידון ה-NYT ספג ביקורת מוצדקת: הקטעים היו קצרים, מנותקים מקונטקסט וה- AI יצר קטע מותאם לחידון הספציפי הזה. זה אולי לא מבחן הוגן לאיכות ספרותית, אבל זה כן מבחן מציאותי לעולם של 2026, בו רוב הטקסטים שאנחנו צורכים הם בדיוק כאלה: קצרים, מנותקים, מותאמים לצריכה מהירה. במגרש הזה, ה-AI מנצח.
ההשפעה הזו הוכחה לאחרונה באופן מוחשי בכנס CHI 2025. חוקרים ביקשו מ-118 משתתפים, מחציתם מהודו ומחציתם מארה״ב, לכתוב על נושאים תרבותיים, חלקם עם AI וחלקם בלעדיו. התוצאות הראו שכאשר המשתתפים ההודים קיבלו הצעות ממודלי השפה, הם החלו לתאר את התרבות שלהם דרך עדשה מערבית: הקלדת ״S״ עבור שחקן הקולנוע ההודי Shah Rukh Khan הובילה להצעה של Scarlett Johansson. כתיבה על אוכל אהוב הומרה ל״פיצה״ ו״כריסמס״. החוקרים כינו את התופעה ״קולוניאליזם של בינה מלאכותית״ (AI Colonialism).
זה כמובן לא עניין של הודו בלבד. זו בעיה של כל מי שאינו ניצב במרכז הקונצנזוס. במשך שנים, שאלת ההטיה בבינה מלאכותית התמקדה במי נותר מאחור: קבוצות מיעוט וקהילות מוחלשות שאינן מיוצגות כראוי בנתוני האימון ולכן עבור המערכות הן ״שקופות״. היום, מתווספת לכך שכבה חמורה פי כמה. הבעיה כעת אינה מתמצה רק במי שנותר בחוץ, אלא מתבטאת בכך שגם מי שנמצא בפנים נשאב אל עבר מרכז צר ואחיד. הממוצע, שה־AI למד מאיתנו, ומחזיר אלינו, דוחף לעבר נקודת מרכז עצימה יותר - והשוליים פשוט נמחקים.
המשמעות היא אובדן הדרגתי של המורכבות האנושית. פחות רעיונות לא צפויים, פחות מומחיות ייחודית, ויותר ״מוזיקת מעליות״ של תוכן בטוח וצפוי.
אנחנו לא רק קורבנות של המנגנון הזה, אנחנו שותפים ביצירתו. בכל פעם שאנחנו מעדיפים את הטקסט של המכונה, אנחנו בוחרים בתשובה נטולת החספוס. הבינה המלאכותית למדה את ההעדפה הזו שלנו, וכעת היא מגישה לנו את הטעם של עצמנו בגרסה מהונדסת, שוב ושוב. טווח החשיבה שלנו ילך ויצטמצם. אנו נחווה התנוונות, אבל למרבה האירוניה לא נזהה אותה. כי הממוצע תמיד ירגיש בדיוק נכון.
ד״ר לימור זיו היא מנכ״לית Humane AI, מומחית אינטראקציית אדם-AI































