סגור
גג עמוד techtalk דסק

האם בינה מלאכותית מסוגלת להיות אובייקטיבית?

לפני מספר ימים ערכתי ניסוי - ביקשתי מצ׳אט GPT לייצר עבורי שתי תמונות: האחת של מורה בבית ספר, והשנייה של CEO בחברת הייטק. התוצאה לא הייתה מפתיעה, אך בהחלט מטרידה: המורה הייתה אישה לבושה "מאמא-שיק" ומחזיקה מחברת, בעוד שה-CEO הופיע כגבר לבן, בעל שיער כסוף, לבוש חליפה. המודל לא רק שלא שבר את הייצוגים הסטריאוטיפיים אלא שִכפל אותם, ואפילו חיזק.
האם כלי ה-AI החדשים משקפים את מערכת הערכים המסורתית שמוטמעת בהם, כזו הכוללת דעות קדומות ועיוותים תרבותיים, או שהם יכולים להיות "ניטרליים"? ואיך משפיעים העיוותים הללו על החברה?
הבעיה לא נעוצה בטכנולוגיה - היא מהירה, חכמה ויעילה. האתגר הוא בפיתוח ובעיצוב שלה. מערכות AI לומדות על בסיס נתונים שהוזנו אליהן, אך לעיתים קרובות הנתונים הללו אינם מייצגים את כלל החברה. הן נבנות מנקודת מבט צרה, מוטה, ולפעמים בלתי מודעת, ומייצרות תוצרים שנראים אמינים אך בפועל מקבעים טעויות והטיות.
מחקרים שונים מצביעים על ההטיות האלו. לדוגמה, מחקר של ארגון אופטום מ-2021 מצא שהסיכוי של אלגוריתמים לזיהוי פנים לשגות בזיהוי של נשים כהות עור גבוה פי ארבעה מאשר בזיהוי של גברים לבנים. מחקר נוסף של MIT Media Lab מצא שמערכות לזיהוי דיבור מתקשות לזהות מבטא אפרו-אמריקאי. כשמערכות אלו משולבות במיון מועמדים לעבודה, באבחון רפואי או בזיהוי פלילי הן יוצרות עיוותים שמנציחים חוסר שוויון.
1 צפייה בגלריה
מירית דקטור חברת BigID
מירית דקטור חברת BigID
מירית דקטור
(צילום: אוהד דיין)
קל לחשוב על בינה מלאכותית ככלי חסר פניות, אך בפועל מדובר במראה. היא משקפת את מי שאנחנו, את ההטיות שלנו, את ההיסטוריה הכתובה בין השורות. השאלה היא האם אנחנו מודעים לכך. כאשר אנחנו משתמשים בה כדי לנתח מגמות או לקבל החלטות, הייצוג המתקבל של המציאות הוא לא פעם חלקי, מוטה ואף פגום.
כיצד ניתן לבנות טכנולוגיה צודקת יותר? בכדי לייצר שינוי, לא מספיק "לתקן את האלגוריתם". עלינו לשנות את דרך החשיבה, את גישת העיצוב ואת הפרומפט - ההנחיות הניתנות למודל.
ראשית, עלינו לוודא כי מאגר הנתונים עליו המודל נשען הוא מגוון. ככל שהמודל ילמד ממגוון קולות, מראות ונרטיבים כך הוא ידייק לייצג את המציאות. לדוגמה, סטארטאפים בתחום הבריאות שמזינים מודלים רפואיים רק על בסיס מידע הנוגע לגברים לבנים עלולים לפספס תסמינים שמופיעים אצל נשים או בקבוצות אתניות אחרות.
שנית, אנשי ונשות הייטק צריכים לא רק להכיר את הטכנולוגיה אלא גם להבין את הקונטקסטים החברתיים-תרבותיים שבהם היא תפעל. קורסים בנושאי מגדר, גזע, נגישות ותרבות צריכים להיות חלק מההכשרה של מפתחי ומפתחות AI. כך כבר בשלב האפיון יעלו שאלות חשובות בנוגע לסטריאוטיפים מגדריים ותפיסות תרבותיות והמודל לא יקבע את ההטיה.
כמו כן, כלי AI צריכים לפעול בשקיפות. משתמשים ומשתמשות צריכים להבין מה עומד מאחורי המערכת - כיצד היא "חושבת", באילו נתונים היא משתמשת ומה הסיכוי שהחלטותיה יהיו מוטות. פרויקטים כמו Model Cards של גוגל או Datasheets for Datasets של חוקרות ה-AI טימניט גברו ומרגרט מיטשל ניסו לאפשר שקיפות בתהליך הפיתוח של מערכות כאלו וראוי לאמצם גם במוצרים צרכניים.
בנוסף, עלינו לשלב ביקורת ערכית בתהליך פיתוח מודל ה-AI. האם יש מישהו בצוות שממונה על ההיבטים האתיים? האם מתקיים תהליך של "בדיקה ערכית" לאורך הפיתוח? כמו שבודקים שימושיות, נגישות וביצועים, חשוב לבדוק גם האם המערכת מכבדת מגוון אנושי, האם היא משמרת היררכיות והאם היא עשויה לפגוע.
לסיכום, בבואנו לפתח ולעצב כלי AI, עלינו להכווין אותם להבנות תרבות רחבה, מכלילה ומאפשרת. Inclusive thinking אינה רק שיטה, זהו חזון המבקש להרחיב את הדמיון. לדוגמה, עלינו לשאול איך ייראה ממשק שמכבד דוברי ערבית, אמהרית, יידיש או אוקראינית בדיוק כמו אנגלית, ואיך תבנה בינה מלאכותית שמציגה גם משפחות חד-מיניות כשהיא מתבקשת לייצר דימוי של "משפחה".
חזרתי לניסוי ההוא. במקום לכתוב "מורה" או "CEO", הוספתי כי הם יכולים להיות מכל מגדר, תרבות או רקע. התוצאה היתה מגוונת בהרבה. בזמן שכלים חכמים מציעים לנו אוטומציה ונוחות, עלינו להציע להם ראייה רחבה ותודעה ביקורתית. כשרוחות רעות מנשבות בממשלים בעולם וטיפול בהטיות נדחק או מבוטל, האחריות נמצאת בידינו. עם קצת תשומת לב, מחשבה, ודמיון נוכל להחזיר לעצמנו את היכולת לעצב הווה וגם עתיד יותר מאפשרים.
מירית דקטור היא סמנכ"לית UX & Product Design בחברת BigID, המחברת בין דאטה לבין בינה מלאכותית