סגור
גג עמוד techtalk דסק

בינה מלאכותית, נרטיב מלאכותי: כך Reddit ו-ויקיפדיה מעצבות את המציאות

דו"ח עדכני של Semrush, מגלה כי Reddit ו-ויקיפדיה, הפכו למאגרי הידע המרכזי של מודלי AI. כשהמקורות המרכזיים שמזינים את כלי הבינה המלאכותית הם פורומים מוטים ומלחמות עריכה בויקיפדיה, האמת הופכת לנרטיב. עבור ישראל, זהו לא עוד ויכוח אקדמי, אלא שדה קרב תודעתי שמעצב את דעת הקהל העולמית

בשנים האחרונות מתרחש שינוי דרמטי במבנה ההשפעה על שיח המידע העולמי. אם פעם חיפוש בגוגל היה השער למידע, היום השאלות מופנות לכלי ה־AI, שמחזירים תשובות מיידיות, מנוסחות היטב ומלאות ביטחון עצמי. אלא שהביטחון הזה מטעה: מאחורי התשובות מסתתרים מקורות שמעצבים את המציאות בדרך בעייתית.
דו"ח עדכני של Semrush, ענקית השיווק הדיגיטלי, מגלה כי Reddit הפכה למאגר הידע המרכזי של מודלי AI, עם לא פחות מ־40% מהציטוטים שקיבלו משתמשים בכלי הבינה המלאכותית המובילים, ביניהם: Chatgpt Copilot, Gemini, בחודש יוני. ויקיפדיה, שעד לא מזמן נחשבה לספריית הידע הגלובלית, נדחקה למקום השני עם 26.3%.
לכאורה מדובר במעבר מעולם "ממסדי" לעולם עממי, שבו קהילות של גולשים מחליפות את ההגמוניה של אנציקלופדיה חינמית. אבל בפועל, שתי הפלטפורמות הללו: Reddit ו־ויקיפדיה, אינן מציעות ניטרליות, אלא תמונת עולם שמוטה מראש.

מי מרוויח מההטיה ברשתות?

1 צפייה בגלריה
לירון רוז משקיע אנג'ל
לירון רוז משקיע אנג'ל
לירון רוז
(צילום: אייל מרילוס)
חשוב להבין שההטיות אינן רק תוצאה של טעויות תמימות. ויקיפדיה היא זירה של "מלחמות עריכה" שבהן גופים מדינתיים וארגונים אידיאולוגיים משקיעים משאבים כדי להטות נרטיבים. ברדיט, מנגנון האלגוריתם מתגמל פוסטים ותגובות שמעוררים הכי הרבה אינטראקציה, לא בהכרח את אלו שהכי קרובים לאמת. במילים אחרות, אינטרסים פוליטיים וכלכליים דוחפים קדימה את מה שהכי רועש, לא את מה שהכי נכון.
כאן נוצר האפקט המסוכן ביותר: תוכן מוטה נכתב ברדיט או נערך בויקיפדיה, מודלי הבינה המלאכותית שואבים אותו, מחזירים אותו כעובדה מובהקת, והמשתמשים, שחוזרים שוב לערוך או להגיב,מקבעים את המידע. כך נוצרה "סגירה מעגלית": ההטיה מתמסדת, מתגלגלת בין פלטפורמות, עד שהיא מתקבלת כאמת היסטורית.

גיאו־פוליטיקה של מידע

עבור ישראל, המחיר כבד במיוחד. יריבות גיאו־פוליטיות מבינות היטב את הכללים החדשים ומשתמשות בהם ל"מלחמת מידע". הן אינן זקוקות לעיתון בינלאומי מוביל; די להן להפעיל קבוצות עורכים בויקיפדיה או צבא טוקבקיסטים ברדיט כדי לשנות את התודעה.
וזה קורה כבר היום: לפי עמוד הלינקדאין Wikibias, ערכים מרכזיים על הסכסוך הישראלי־פלסטיני, כמו “האינתיפאדה השנייה” או “רצועת עזה” – עוברים עשרות ומאות עריכות מצד קבוצות מאורגנות, עד שהנרטיב שמוצג לקורא הוא שישראל היא הצד ה noתוקפן, בעוד התקפות טרור מוזכרות בהערות שוליים בלבד. מחקר של ה-ADL חשף שיותר מ־30 עורכים פעלו לאורך שנים בקמפיין מתואם למחוק אזכורים של פיגועי חמאס ולהחליף ניסוחים שיקראו "טרור" במילים מרוככות כמו "אלימות" או "עימותים". בדוגמה אחרת, ערך שתיאר את מדיניות איראן כלפי ישראל כקריאה מפורשת להשמדתה' מוזג לערך כללי על יחסי איראן-ישראל, כך שהמסר המאיים נעלם מהעין הציבורית. ואפילו בתחום ההיסטוריה: מחקרים על הכחשת שואה ומניפולציות סביב עדויות הוסתרו בעמודי משנה (Talk pages), הרחק מעיני הקורא הרגיל.

מה עושים עם זה?

המצב מחייב פעולה. ראשית, דרישה לשקיפות מחברות ה־AI: לחשוף אילו מקורות מזינים את המודלים וכיצד הם נבחרים. שנית, הקמת מאגרי ידע עצמאיים, גם בישראל, שיזינו את המודלים בפרספקטיבה מגוונת ולא מוטה. ושלישית, אולי החשוב מכל: חינוך הציבור לצרכנות ביקורתית. כמו שלמדנו לא להאמין לכל מה שמופיע בחיפוש בגוגל, כך צריך להטמיע כלים לחשיבה ביקורתית גם ביחס לתשובות AI.
כי אם לא נעשה זאת, המכונה שמדברת בביטחון תהפוך לא רק לשומר הסף החדש של הידע, אלא גם למעצב התודעה הקולקטיבית – ללא אחריות, ללא שקיפות, וללא יכולת תיקון.
אנחנו נכנסים לעידן בו שומרי הסף של הידע האנושי התחלפו. את מקומם של עורכים, עיתונאים ואנשי מקצוע תפסו אלגוריתמים שמייצרים תשובות מיידיות. בעיתון יש עורך ראשי. בטלוויזיה יש מגיש שינווט. אבל לבינה מלאכותית אין שומר בשער. אין דרך לדעת אילו מקורות שימשו ליצירת התשובה, מה נבחר ומה הושמט, ואיזו יד נעלמה הטתה את החומר ועלינו לפעול עכשיו לפני שהאמת תהיה .
לירון רוז הוא יזם סדרתי, משקיע הון סיכון ומנחה הפודקאסט ״הינשוף״