בעידן ה-AI, אנטישמיות כבר לא שונאת יהודים, היא פשוט לא סופרת אותם
השבוע התרחש באוסטרליה פיגוע אנטישמי נוסף. לא הראשון, ולצערנו כנראה שגם לא האחרון. מה שבלט בו במיוחד לא היה רק עצם האלימות, אלא האופן שבו הוא הוטמע בשיח הציבורי העולמי: במהירות, בזהירות, ובעיקר בהיעדר דחיפות. הוא סווג כעוד אירוע, עוד הקשר, עוד סעיף בתוך רצף של מתחים גלובליים. לא שנאה בוטה, לא אזעקה מוסרית, אלא שקט יחסי. שקט שמרגיש מוכר מדי.
מספר שעות לאחר הפיגוע המזעזע, כבר הגיעו פרו פלסטינים להפגין באירוע, עם השוואות מקוממות. בעבר, אנטישמיות הייתה קלה לזיהוי. היא הייתה מלאה בשנאה גלויה, הסתה, קריאות לאלימות. היה לה אויב ברור, והתגובה אליה הייתה חד־משמעית. אבל בעידן הבינה המלאכותית, האנטישמיות משנה צורה. היא כבר לא חייבת לשנוא יהודים כדי לפגוע בהם. מספיק שהיא תפסיק לראות בהם קבוצה שדורשת התייחסות מיוחדת, הגנה ייחודית או תגובה מוסדית חדה.
האנטישמיות החדשה פועלת דרך מחיקה שקטה. היא לא אומרת “היהודים אשמים”, אלא “זה מורכב”. היא לא מכחישה פגיעה, אלא עוטפת אותה בשכבות של הקשר. היא לא מסיתה, אלא מייצרת סימטריה מזויפת: כולם סובלים, כולם חלק מקונפליקט רחב, כולם צדדים בסיפור גדול מדי מכדי לבחור עמדה.
אנטישמיות בעידן הבינה המלאכותית מקבלת צורה חדשה וערמומית במיוחד. מערכות AI אינן שונאות, אין להן רגש או אידיאולוגיה. אבל הן כן לומדות דפוסים. הן מוזנות בשיח ציבורי, בתגובות מוסדיות, בכותרות, בטון. וכאשר העולם מתרגל למסגר פגיעה ביהודים כ”עוד נרטיב”, “עוד מקרה”, “עוד ביטוי של קיצוניות”, האלגוריתם מפנים מסר ברור: יהודים אינם קטגוריה חריגה. הם אינם דורשים אזעקה מיוחדת.
כך נוצרת דה-רלוונטיזציה. יותר מדה-לגיטימציה, הפחתת חשיבות. יהודים לא מוצגים כרעים, אלא כלא מספיק מיוחדים. לא כקורבנות ממוקדים, אלא כנתון בתוך מערכת סבוכה. וכשכולם “מורכבים”, אף אחד לא מוגן באמת.
הפיגוע השבוע באוסטרליה הוא דוגמה חדה לכך. לא בגלל מה שנאמר עליו, אלא בגלל מה שלא. בגלל האופן שבו הוא נטמע במהירות בתוך שיח רחב, נטול הבחנה, כזה שמעדיף איזון על פני אחריות. לא מתוך רוע, אלא מתוך עייפות מוסרית. גלילה פשוטה ברשתות החברתיות מראה לנו את התיוגים המיידיים של האלגוריתם של דיסאינפורמציה בעקבות הפיגוע.
וזו בדיוק הסכנה. אנטישמיות בעידן ה-AI אינה צורחת. היא לוחשת. היא לא מבקשת למחוק יהודים מהמרחב הציבורי, אלא להפסיק לספור אותם כקבוצה שראויה להגנה ייחודית. כשהתגובה מתמסמסת, כשהאלגוריתם לומד שאין כאן חריגות, כשהמוסדות מגיבים באיפוק יתר, הפגיעה כבר נעשתה.
אם בעבר שאלנו האם מערכות טכנולוגיות עלולות לשנוא, היום השאלה הדחופה יותר היא אחרת: מה קורה כשהן פשוט לא רואות.
חן ברקת הוא יזם הייטק בתחום האימפקט החברתי בדגש על פרויקטי AI





























