סגור
גג עמוד techtalk דסק

האלגוריתם שניפץ את תקרת הזכוכית – ובנה אותה מחדש

האם הבינה המלאכותית מחזירה את הנשים לאחור?

לקראת יום האישה הבינלאומי, אנחנו אוהבים לדבר על התקדמות: על שבירת תקרות זכוכית, על נשים בעמדות מפתח ועל צמצום פערי שכר. אבל דווקא השנה, כשהבינה המלאכותית משתלטת על שוק העבודה, כדאי לעצור ולשאול: האם הטכנולוגיה שהבטיחה שוויון, דווקא מסכנת אותו?
בתיאוריה, ה-AI נועד לפתור את בעיית "ההטיה הקוגניטיבית" (Cognitive Bias) של המגייס האנושי. משפט העבודה הישראלי מכיר מזה עשורים בכך שהחלטות ניהוליות רבות מושפעות מסטריאוטיפים מגדריים. המעבר למערכות חישוביות נתפס כצעד לעבר "גיוס עיוור" – כזה שבוחן כישורים בלבד. הרעיון נשמע מבטיח. במקום מנהל מגייס שמעדיף באופן לא מודע גברים על נשים, או שחושב ש"היא בגיל שמביאים ילדים", יבוא אלגוריתם קר וחישובי. הוא יבחן את הכישורים, הניסיון, ההשכלה - ויבחר את המועמד הטוב ביותר. בלי רגשות, בלי הטיות, בלי אפליה. זו הייתה ההבטחה. המציאות, כפי שמתברר, שונה לחלוטין.

השיעור של אמזון: האלגוריתם הוא מראה של העבר

כבר ב-2018 נחשף כי מערכת הסינון של אמזון הפלתה נשים באופן שיטתי. הסיבה לא הייתה זדון, אלא סטטיסטיקה: המערכת אומנה על קורות חיים של עובדים שהתקבלו בעשור שקדם לה – רובם גברים. האלגוריתם "למד" שגברים הם מועמדים עדיפים, והחל להוריד ניקוד באופן אוטומטי לקורות חיים שהכילו רמזים מגדריים ("נשיים").
זוהי הבעיה היסודית: אלגוריתמים לומדים מנתוני העבר, ונתוני העבר משקפים היסטוריה של אפליה. אם עד היום קודמו פחות נשים, האלגוריתם יסיק שזו המדיניות הרצויה. יתרה מכך, מערכות AI משתמשות ב"פרוקסי" (משתנים עקיפים) – כמו מיקוד מגורים, סגנון כתיבה או תחביבים – כדי לזהות מגדר ולסנן מועמדות, גם בלי שצוין בטופס אם מדובר ב"זכר" או "נקבה".
1 צפייה בגלריה
עו"ד שירה להט
עו"ד שירה להט
שירה להט
(צילום: יורם רשף)

המעסיקים כבר על הכוונת

בארה"ב הגל כבר התחיל: בינואר 2026 הוגשה תביעה ייצוגית נגד Eightfold AI בטענה לסינון מועמדים באמצעות פרמטרים עלומים וללא הסכמה. ומה בישראל?
החוק הישראלי אוסר אפליה בקבלה לעבודה, ובית הדין לעבודה בוחן תוצאות, לא כוונות. מעסיק לא יוכל להתגונן בטענה "האלגוריתם אמר לי", בדיוק כפי שאינו יכול להאשים חברת כוח אדם.
האתגר הגדול הוא "הקופסה השחורה": מועמדת שלא זומנה לראיון מתקשה להוכיח שהופלתה, כיוון שאין לה גישה לקריטריונים של המערכת. עם זאת, חוק שוויון ההזדמנויות קובע שאם מועמדת הוכיחה עמידה בתנאי הסף ולא התקבלה – נטל ההוכחה עובר למעסיק.
בעידן ה-AI, נטל זה הופך לכבד במיוחד. מעסיקים יידרשו להציג "דו"חות ביקורת הטיה" (Bias Audits) כדי להוכיח שהמערכת שלהם נבדקה באופן שוטף. משרד המשפטים והרשות להגנת הפרטיות כבר עוקבים אחר המגמות בעולם, וייתכן כי בקרוב נראה רגולציה המחייבת חשיפת קריטריונים של מערכות מיון אוטומטיות.
הסכנה לא נעצרת בגיוס, אלא זולגת לשכר. חוק שכר שווה (1996) מחייב שכר זהה על עבודה שווה. כאשר מערכת AI קובעת שכר על בסיס נתוני עבר, היא עלולה לשכפל פערים היסטוריים: אם נשים נטו לבקש פחות או להרוויח פחות בעבר, האלגוריתם יציע להן שכר נמוך יותר.
אלא שמבחינת דיני העבודה, הטענה כי "זה מה שהמערכת הציעה בהתבסס על נתוני השוק" לא תהווה הגנה תקפה. בפסק הדין המפורסם בעניין גורן נגד הום סנטר, הובהר כי גם ללא כוונת אפליה, פער שכר שאינו מוצדק עניינית מהווה הפרה של החוק. בעידן ה-AI, על המעסיק מוטלת האחריות המשפטית לבצע "תיקון אלגוריתמי" ולוודא שהמכונה אינה משמשת כלי לעקיפת חובת השוויון בשכר, דבר שעלול לחשוף את הארגון לתביעות פיצויים משמעותיות ללא הוכחת נזק.
הבינה המלאכותית היא כלי עבודה עוצמתי, אך היא אינה פוטרת מאחריות שילוחית או חוזית. יום האישה זו הזדמנות אחת מני רבות לבחון את מערכות הבינה המלאכותית שמעסיקים משתמשים בהן, לוודא קיומו של "Human in the Loop" שיהיה מעורב בהליכים שהבינה המלאכותית מנהלת עבורנו; ליידע מועמדים ועובדים כאשר אנחנו עושים שימוש בכלי בינה מלאכותית; ולזכור שלא לקבל את תוצרי הבינה המלאכותית כ"תורה מסיני". הבינה המלאכותית היא כלי עזר מדהים, אבל הוא לא פוטר את המעסיקים מאחריות- לא משפטית ולא מוסרית.
עו"ד שירה להט היא שותפה מובילה, דיני עבודה במשרד ארנון, תדמור-לוי