$
דו"ח טכנולוגי

דו"ח טכנולוגי

על הקשר בין בינה מלאכותית, בינה אנושית, אתיקה ומוסר

אנחנו לא חייבים לדעת איך אלגוריתמים עובדים בדיוק, אבל יש לנו את הזכות לדעת שהם מפותחים ומופעלים בצורה אתית, שלא מפלה בין משתמשים על בסיס משתנים לא רלוונטיים. המחקר של הישאם עבד אלחלים, מנהל מוצר ראשי AI באינטואיט ישראל, עוסק בניסיון לפתור את הסוגיה הזו

עומר כביר 09:1410.03.21

בטור הקודם עסקתי בכוונה של המועצה המפקחת על פייסבוק לראות את האלגוריתם של החברה, והסברתי איך זה משתלב בשינוי התפיסה שהיא מובילה ביחס לניהול תוכן ברשתות חברתיות. אבל הטור לא ענה על שאלה חשובה: אם כבר תקבל המועצה גישה כלשהי לאלגוריתם, מה היא תוכל לעשות אתו, ואיך?

 

כדי לענות על השאלה הזו צריך להבין קודם שהעניין של המועצה המפקחת באלגוריתם אינו מקרי, לא מופרך, ובעיקר לא מגיע משום מקום ולא תלוי לבדו בחלל הריק. הוא משתלב בתחום עיסוק ומחקר שמכונה אתיקה בבינה מלאכותית, שהולך וצובר תאוצה בשנים האחרונות, ושאמור לשנות את האופן שבו מפתחים מערכות AI.

 

לכאורה, אין קשר בין בינה מלאכותית לאתיקה או מוסר. זו מערכת מחשוב שמקבלת החלטות על בסיס מידע קר וקשה, בלי רגש או שיקולים אנושיים, רק היגיון. אבל מערכות טובות רק כמו האנשים שמפתחים אותן והמידע שמוזן להן, ובכמה מקרים בעבר כבר התברר שגם מערכת בינה מלאכותית עלולה לסבול מהטיות ושגיאות שמובילות לתוצאות לא אתיות בעליל.

 

 

"לאמזון היה כלי מבוסס AI לגיוס עובדים, ששימש למיון קורות חיים למשרות הנדסה בחברה לפי המועמדים להם יש את הסיכוי הטוב ביותר לזכות להצלחה בתפקיד על סמך ההצלחה של עובדים קיימים", סיפר ל"דו"ח טכנולוגי" הישאם עבד אלחלים, מנהל מוצר ראשי AI באינטואיט (Intuit) ישראל ודוקטורנט לאתיקה בבינה מלאכותית באוניברסיטת בן גוריון. "אבל מכיוון שרוב העובדים בתפקידים אלו בחברה הם גברים, האלגוריתם תיעדף קורות חיים של גברים. זו הטייה שנוצרה כי הנתונים הסטטיסטיים אמרו שאם המועמד הוא גבר יש סיכוי טוב שהוא מתאים למשרה הזו".

 

זה קרה לא מפני שהאלגוריתם שוביניסט שמעדיף גברים, אלא מכיוון שבמידע שהוזן לו על ידי המפתחים – זהות המהנדסים באמזון – היה ייצוג יתר לגברים, והוא למד שגברים עדיפים על נשים בהקשר זה, ותעדף את קורות החיים שלהם. הבעיה לא היתה במערכת ה-AI, היא רק אוסף של 0 ו-1, אלא בהליך הפיתוח שלה - וזה המקום שבו העיסוק באתיקה ובבינה מלאכותית יכול לחולל שינוי.

 

הישאם עבד אלחלים הישאם עבד אלחלים

 

"בינה מלאכותית מספקת לחברות יכולת לעשות חישובים מאוד מהירים עם כמות נתונים מאוד גדולה כדי למנוע הונאות, לייצר יותר ערך, לתת לאנשים המלצות, מה שלא יהיה", הסביר עבד אלחלים. "אבל מכיוון שהרבה מהאלגוריתמיקה מתבססת על נוסחאות סטטיסטיות ועיקרון שמכונה 'קופסה שחורה' (מונח שמתייחס לאופן העבודה של מערכות AI רבות, ובו מוזנים נתונים שונים למערכת שמעבדת אותם ומספקת תוצר, מבלי שאפילו המפתחים עצמם יודעים על סמך אילו שיקולים הגיעה המערכת לתוצאה הסופית, ע.כ) נוצר כשל שלא תמיד יש לו היגיון או הצדקה. יש מקרים בהם מערכת AI יכולה לייצר הטיות מסוימות. היכולת לשים לב ולעלות על הטייה אפשרית בזמן פיתוח מערכת AI יכולה לגרום לחברה לייצר תהליכים אתיים ושקופים יותר, ולמוצר שלהם להיות יותר טוב".

 

בכך, אמר עבד אלחלים, פיתוח AI לא שונה ממקצועות אחרים שעוסקים בסוגיות אתיות: "לרופא, עו"ד או רואה חשבון יש קוד אתי מקצועי. בעולם התוכנה אין את זה. אבל ככל שהעולם הולך ומאמץ טכנולוגיות AI, הצורך להגיד האם ההליכים נעשים כמו שצריך או לא גובר. יש גם קשר אדוק בין אתיקה לאיכות המוצר. אם ניקח מערכת בינה מלאכותית שמקבלת החלטות אוטומטיות, שמקטלגת אנשים באיזה שהוא אופן, אתיקה תעזור לה לקבל את ההחלטה הנכונה ולהוריד את שיעור ההחלטות הלא נכונות".

 

המקרה של אמזון, בהקשר זה, לא יוצא דופן מבעיות הטיה דומות במערכות AI, שנקשרות להליך הפיתוח של המערכת. "הליך הפיתוח כיום מתבסס על כמה צעדים, שאחד הניכרים שבהם הוא אימון האלגוריתם. מפתח לא משפיע ישירות על האלגוריתם עצמו, אלא מזין לו סט נתונים, אומר לו לרוץ עליהם וליצור מודל שיאפשר לו לעשות חיזוי עתידי על בסיסם (ולכן המערכת של אמזון תעדפה גברים: כשבחנה את עובדי ההנדסה בחברה ראתה שרובם המכריע גברים, והבינה שמועמד טוב = גבר, ע.כ). אם בסיס הנתונים לא מבוסס על כלל האוכלוסיה או לא מתייחס למקרי קצה, הוא יהיה מוטה לאוכלוסייה מסוימת. אם נוכלו לאמן אלגוריתם עם סט נתונים מלא, שלוקח בחשבון את כל האוכלוסיות ואת כל המקרים, כנראה שהוא יהיה יותר טוב, ויכלול נקודות שעוזרות לו לקבל החלטה יותר אתית. יש הרבה סוגים של הטיות. הטיה יכולה להיות מפלה כלפי הרבה גורמים, לא בהכרח על בסיס דמוגרפי. העובדה שאלגוריתם יכול להפלות לקבוצה זו או אחרת, זה משהו לא אתי. אז אם אני גורם למודל להתאמן על דאטה שמייצג את כל או את רוב האוכלוסיות בצורה הוגנת הוא יהפוך ליותר אתי".

 

 צילום: שאטרסטוק

 

מה אמזון היו יכולים לעשות? יש להם את אוכלוסיית העובדים שלהם, אין להם אוכלוסייה אחרת.

"הם יכולים להסתכל על הנתונים ולראות אם הם מספיק מגוונים. האם יש נתונים שהאלגוריתם לוקח בחשבון, ישירות או לא ישירות, שאפשר להוציא מהאימון הזה. אם הנתונים שמשמשים לאימון האלגוריתם היו מבוססים על משתנים כמו ניסיון והשכלה, אלו דברים שיש סיכוי טוב שאם המודל היה מתאמן עליהם הוא היה מוצא מועמדים שהם לא רק גברים. אפשר לנטרל את האלמנט שגורם להטיה. אם יכולנו להבין איך האלגוריתם עובד, איך הקשרים נוצרו ומה השפיע על ההחלטה, אפשר לנטרל את ההטיה".

 

"אנחנו כולנו חבים לאמזון אשר עשתה מהלך מדהים והציפה את הבעייתיות במודל גיוס שלה ולקחה אחראיות מלאה על השלכותיו - ואף השתמשה בתובנות שהושגו בעקבות המקרה על מנת למנף את חשיבות האתיקה בכל התעשייה. אמזון, אשר ידועה בתור חברה שדוגלת בערכי יסוד ראויים להערכה, סללה את הדרך עבור חברות רבות ולכן אישית אני מאמין שאוטופיה כן תגיע ממהלכים שהעולם הטכנולוגי מוביל".

  

המחקר האקדמי של עבד אלחלים עוסק בניסיון לפתור את הסוגיה הזו - בפיתוח שיטות שיאפשרו להבין איך אלגוריתם עובד, יהפכו את הקופסה השחורה לשקופה, וכך יסייעו לזהות אתיות שונות, לנטרל אותן ולהפוך את המערכות לטובות יותר. מדובר בקונספט שמכונה XAI – קיצור של Explainable AI, בינה מלאכותית בת-הסברה. "זה מושג שמתייחס ליכולת של מי שמפתח אלגוריתם להבין איזה סוג נתונים תרם להחלטה שהמודל קיבל, ומה מידת ההשפעה שלו", הוא הסביר. "לדוגמה, טכנולוגיה שיכולה להסביר את שיעור התרומה של כל אלמנט בנתונים להחלטה – למשל, שם משפחה תרם 15%, כתובת 8%, השכלה 38% - וכך לזהות האם יש אלמנטים שעלולים להניע לתוצאות מוטות.

 

"יש שמות כמו הישאם או אלכס שיכולים להראות קשר לעדה או מוצא. יש דברים שעושים את זה בצורה לא ישירה, כמו כתובת מגורים. אם נהיה מודעים לזה זה כבר טוב, אף אחד לא יכול להגיד 'לא ידעתי שזה מפלה'. במחקר שלי אני מנסה לקשר תהליכים אתיים לתוך הפיתוח. אם אני מטמיע טנכולוגיית XAI, אני מאפשר למפתח ולחברה להיות מודעים לסיכונים של השפעות כאלו. אני מראה במחקר שלי איך הטמעת כלים כאלו משפיעה על האתיקה במובן המוסרי, אבל גם על איכות התוכנה בסופו של דבר. האלגוריתם מקבל החלטות טובות יותר ושיעור השגיאות יורד".

 

זה מה שמבקשת המועצה המפקחת לעשות: להבין אילו שיקולים משפיעים על קבלת ההחלטות של האלגוריתם שלה, בפרט כאשר מדובר בצנזור והסרת תכנים, על מנת להבין האם ההחלטות שמקבל האלגוריתם הן אתיות ונכונות, או אולי מפלות אוכלוסיות מסוימות. ייתכן, בתיאוריה, שהאלגוריתם מוריד יותר פוסטים של אפרו-אמריקנים מאשר לבנים, אבל בלי להבין איך הוא עובד ובלי לבדוק את התוצאות של עבודתו, אין אפשרות לדעת את זה.

 

בשביל זה, אבל, צריך נכונות בחברה שמפתחת את האלגוריתם לבצע תהליכים כאלו. "עצם העובדה שאני מציף את הנושאים האלו לא אומר שהבעיה תפתר, אבל זה לפחות מניע תהליך שקיפות", אמר עבד אלחלים. "המחקר שלי עוסק באיך מי שזה חשוב לו יכול לעלות על הדברים האלו".

 

לפייסבוק, כלפי חוץ לפחות, זה לא היה חשוב. המועצה המפקחת מקווה לשנות את זה. אסור, עם זאת, להתמקד רק בפייסבוק. אלגוריתמים לא-שקופים מלווים אותנו בכל שירות שאנו משתמשים בו. הם מחליטים אילו תוצאות חיפוש יוצגו לנו בגוגל, על אילו מוצרים אמזון תמליץ לנו, איזה פרסומות נראה בטוויטר. מאחורי הקלעים הם מסירים אוטומטית סרטונים יוטיוב שמפירים זכויות יוצרים, חוסמים ומדווחים על פוסטים ברשתות חברתיות שמפירים את כללי הקהילה, משנים ומעצבים את חיינו בעוד אינספור דרכים.

 

אנחנו לא חייבים לדעת איך הם עובדים בדיוק, אבל יש לנו את הזכות לדעת שהם מפותחים ומופעלים בצורה אתית, שלא מפלה בין משתמשים על בסיס משתנים לא רלוונטיים. הפתרונות קיימים כבר, כל מה שצריך זה שהחברות יכירו בבעיה ויגלו נכונות לטפל בה.

בטל שלח
    לכל התגובות
    x