סגור
גג עמוד techtalk דסק

כשמאסק מוכר למאסק, והופך את כל המשתמשים לכלי אימון של AI

המהלך של אילון מאסק - מכירת X (לשעבר טוויטר) לחברת הבינה המלאכותית שלו, xAI, תמורת 33 מיליארד דולר, מסמן שינוי ביחסים בין מדיה חברתית לבינה מלאכותית ומעלה חשש לגבי שימוש בנתונים פרטיים לאימון מערכות של AI ומשמעות הדבר לגבי השיח הדמוקרטי. המיזוג הוא יותר מרכישה תאגידית: הוא מייצג שינוי באופן שבו המידע נשלט, מעובד ומופץ. האם משתמשי X צריכים להיות מודאגים? בהחלט.

שימוש בנתונים פרטיים

המכירה מעניקה בעלות בנתונים של X לחברת xAI. כלומר הפעילות של מיליוני אנשים ששיתפו את הדעות והאינטראקציות שלהם ברשת הזו מדי יום, משמשת כעת כנתונים לאימון מודל הבינה המלאכותית. בתחומי שיפוט מסוימים פוסטים ציבוריים עשויים להיות נגישים מבחינה חוקית לאימון בינה מלאכותית, אך מפתחי בינה מלאכותית המחפשים נתוני מדיה חברתית חייבים להיות כפופים לבדיקה רגולטורית כדי להשיג אותם.
אבל המידע הציבורי הגלוי הוא רק קצה הקרחון. לחטיבות הבינה המלאכותית בחברות כמו גוגל ומטה, פלטפורמות חברתיות מונעות בינה מלאכותית, שמשתמשות בבינה מלאכותית באופן נרחב, אין בהכרח גישה בלתי מוגבלת באותו אופן לנתוני משתמשים שאינם ציבוריים: הודעות פרטיות, תוכן שנמחק ודפוסי מעורבות. למשל, OpenAI פועל בנפרד ממיקרוסופט, וכך גם DeepMind מגוגל.
אבל כאשר X נמצאת כעת בשליטת xAI, לאחרונה יש גישה פנימית בלתי מוגבלת לכל התוכן ב-X ללא בדיקות עצמאיות של פרטיות. משתמשים עם חשבונות פרטיים או פוסטים החשופים לקהל מוגבל, שהניחו שהתוכן שלהם נשאר בתוך הפלטפורמה ושהאינטראקציות הפרטיות שלהם מוגנות, עלולים למצוא את ההודעות הפרטיות שלהם משמשות לאימון המודל באופן המעורר חששות אתיים עמוקים.
1 צפייה בגלריה
שרון בסן מכון ברנדייס
שרון בסן מכון ברנדייס
שרון בסן
(צילום: אוניברסיטת דרקסל)
הבעלות החדשה של xAI על X מעניקה לה גישה בלתי מוגבלת לכמויות אדירות של נתוני משתמש, תוך עקיפת אמצעי הגנה אתיים ומשפטיים. בעת שפרסמו, משתמשים לא הסכימו שהפוסטים שלהם ישמשו בעתיד למאמץ עסקי נפרד לחלוטין - במיוחד כזה המתמקד בבינה מלאכותית. שינויים כאלה מאתגרים את הציפיות המבוססות סביב הסכמה מדעת, פרטיות דיגיטלית ושימוש הוגן בנתונים. אם xAI תשנה את המדיניות שלה באופן חד צדדי שייאפשר שימוש בתוכן פרטי לאימון בינה מלאכותית, היא עלולה להפר חוקי פרטיות כמו תקנת הגנת המידע הכללית (GDPR) באיחוד האירופי ותקנות בינה מלאכותית בארצות הברית.

השלכות על הדמוקרטיה כאשר AI מאומן על תוכן לא מסומן

מעבר לדאגת הפרטיות, פלטפורמות מדיה חברתית, כולל X, נאבקות זמן רב עם מידע מוטעה, שיח קיצוני וקיטוב פוליטי. בניגוד לפלטפורמות אחרות שמיישמות מנגנוני בדיקת עובדות למניעת מידע שגוי, X הפחיתה באופן אקטיבי את ניטור התוכן, ומאפשרת הפצת מידע שגוי ודברי שטנה. מודל המסתמך באופן לא פרופורציונלי על X לצורך אימון, עשוי להחריף נרטיבים מטעים ומוטים, במקום למתן אותם, ולדחוף את המשתמשים לנקודות מבט קיצוניות. בעוד שכל דגמי הבינה המלאכותית מכילים שילוב של מידע אמין ושגוי, הגישה הבלתי מוגבלת של xAI ל-X מחמירה את הבעיה הזו בכך שהיא מאפשרת לחברה אחת לשלוט גם במקור הנתונים וגם בפלט הבינה המלאכותית באופן שמערכות בינה מלאכותיות קודמות לא שלטו.
למערכות שתסתמכנה על מודל כזה - כולל Grok - יש השפעה מיידית על הדיון הדמוקרטי. דמוקרטיות בריאות מסתמכות על שיח ציבורי מושכל וחילופי רעיונות ביקורתיים מנקודות מבט שונות. הדיון הציבורי החיוני לדמוקרטיה, מסתמך על גישה למידע אמין, ואיתגור מידע מוטעה. אבל אם מודלים של בינה מלאכותית שאומנו על השיח הבלתי מנוטר של X יהפכו למקורות מידע דומיננטיים, הם ישחקו אמון במקורות אמינים, יעוותו את השיח הציבורי במקום לשפר אותו, ויעצבו מחדש את דעת הקהל בדרכים עדינות אך משפיעות מאוד. זו לא ספקולציה - מסעות פרסום שגויים מונעי בינה מלאכותית כבר השפיעו על בחירות ואמון הציבור ברחבי העולם והוכיחו עד כמה מדיה חברתית יכולה להיות חזקה ומשכנעת.
אם אינטראקציות פרטיות יופעלו מחדש ללא הסכמה, אם מודלים של בינה מלאכותית מאומנים על נתונים לא מהימנים, ואם השיח הציבורי מעוצב על ידי דינמיקה של פלטפורמה שמתעדפת מעורבות משתמשים על פני דיוק, הדמוקרטיה עצמה נמצאת בסיכון. התקווה עם מודלים של AI היא, לכל הפחות, שהם צריכים לשאוף לספק מידע אמין ושימושי. אם הבסיס שלו בנוי על תוכן לא מאומת ומקוטב מאוד, איזה ערך הוא באמת מציע? מי מרוויח ממודלים של בינה מלאכותית הבנויים על נתונים כאלה? ומה זה אומר על עתיד הדיון הציבורי?
שרון בסן היא ראש תחום חדשנות – משפט, מדיניות ואתיקה במכון לואיס ברנדייס במכללה למינהל