סגור
גג עמוד techtalk דסק

הבינה המלאכותית מסכנת את הבחירות - וישראל איננה ערוכה

השבוע, הזהיר מבקר המדינה, מתניהו אנגלמן, כי ישראל איננה ערוכה להגן כראוי על מערכת הבחירות הקרובה מניסיונות התערבות והטייה ממקורות זרים. המשמעות ברורה: גורמים עוינים - ובראשם איראן - עלולים להציף את הרשתות החברתיות במידע כוזב ומפלג, שלא רק ישפיע על תוצאות הבחירות, אלא גם יעמיק את הקיטוב הפוליטי החריף ממילא ואף יערער את אמון הציבור בדמוקרטיה הישראלית.
הבחירות הקרובות יהיו רגישות במיוחד לניסיונות השפעה: הן יהיו הבחירות הראשונות שיתקיימו לאחר מלחמת חרבות ברזל ובצל הפצעת הבינה המלאכותית אל חיינו.

שלושה איומים מרכזיים על טוהר הבחירות

1 צפייה בגלריה
אופיר בראל סדנת יובל נאמן אוניברסיטת ת"א
אופיר בראל סדנת יובל נאמן אוניברסיטת ת"א
אופיר בראל
(צילום: שלומי מזרחי)
האזהרה של אנגלמן התפרסמה ימים ספורים לאחר שכתבי העת המדעיים המובילים בעולם פרסמו שני מחקרים לפיהם, המסרים הפוליטיים שמצביעים פוטנציאליים מקבלים מצ'טבוטים כמו ה-ChatGPT עשויים להיות משכנעים יותר, בהשוואה לכאלו שפורסמו באמצעים המסורתיים. ההשפעה הזו הייתה חזקה יותר, ככל שהצ'טבוט הציג בפניהם כמות גדולה יותר של טיעונים פוליטיים- מה שמעלה את הסיכוי שיפורסם גם יותר מידע כוזב.
לצד זאת, הבינה המלאכותית עלולה לזהם את השיח הפוליטי בישראל בשנה הקרובה בשתי צורות נוספות: ראשית, היא עלולה להרחיב את היקף המידע הכוזב שמופץ, משום שהיא יכולה להוזיל בשיעור של עד 70% את העלויות הכרוכות בכך. כך, בעוד שמבצעי השפעה נרחבים - כגון ההתערבות הרוסית בבחירות 2016 בארה"ב - היו נחלתן של ממשלות בלבד, הבינה המלאכותית עלולה לאפשר גם לקבוצות קטנות - ואף ליחידים - להוציא לפועל קמפיינים דומים מבחינת היקפם והשפעתם.
שנית, הבינה המלאכותית עלולה להעצים את תופעת "רווח השקרן": ניסיונם של פוליטיקאים לערער את אמון הציבור בתוכן אמיתי, המציג אותם באור שלילי, על ידי תיאורו כ"פייק ניוז". לאורך זמן, התופעה עלולה להעצים את הבלבול הציבורי בנוגע לשאלה מהי בעצם האמת ולהטיל ספק במידע מהימן. התופעה הזו כבר גרמה לקהלים שונים בעולם לפקפק בתיעוד אותנטי מטבח השבעה באוקטובר, בטענה כי הוא נוצר על ידי בינה מלאכותית.

ישראל מתחילה לפעול נגד האיום - אך נדרשות פעולות נוספות

לאחר אזהרת המבקר, צפויה וועדת הבחירות המרכזית לדון בקרוב בדרכים להתמודד עם השפעות הבינה המלאכותית. בין היתר, יעסוק הדיון בחובת סימונם של תכנים שנוצרו על ידי בינה מלאכותית. זהו אומנם צעד חשוב, אך היערכות יעילה לאיום מצריכה ליישם צעדים נוספים, שטרם נראו בישראל.
הניסיון העולמי שהצטבר בעולם בנושא הזה עשוי להציע מספר כיווני פעולה אפשריים. בתחום ההסברה לציבור, נמצא שכאשר אזרחים יודעים מבעוד מועד כיצד נוצרת דיסאינפורמציה מבוססת בינה מלאכותית, הדבר מפחית את אמונם בתכנים מניפולטיביים שהם ייחשפו להם בהמשך. פעולות ההסברה יכולות להתמקד, למשל, בבני דור ה-Z- קבוצה שמחקרים מצביעים עליה כבעלת יכולת נמוכה יותר לזהות מידע כוזב, בהשוואה לדורות המבוגרים. רבים מהם, שנולדו מ-1997 ואילך, ייגשו בבחירות הקרובות אל הקלפי לראשונה בחייהם.
כמו כן, מומלץ שוועדת הבחירות המרכזית תאמץ כלים טכנולוגיים מתקדמים לאיתור תכנים כוזבים מבוססי בינה מלאכותית, בדומה ליוזמה שיושמה בדרום קוריאה, לקראת הבחירות שנערכו שם ביוני האחרון. בהקשר זה, הוועדה יכולה להישען על האקו־סיסטם הישראלי העשיר בתחום, הנחשב לשלישי בגודלו בעולם. במקביל, ניתן לבחון גם את הפתרונות שפותחו בהאקתון שאירגן איגוד האינטרנט הישראלי מוקדם יותר השנה, שהוקדש כולו לפיתוח טכנולוגיות למניעת הפצת מידע כוזב.
אופיר בראל הוא ראש צוות המחקר למדיניות סייבר ובינה מלאכותית, סדנת יובל נאמן, אוניברסיטת תל אביב