סגור
נתב"ג שדה התעופה בן גוריון
שבים מחו"ל בנתב"ג. "מתעלמים מהסכנות של בינה מלאכותית" (למצולמים אין קשר לכתבה) (שאול גולן)

נחשף בכלכליסט
האגודה לזכויות האזרח עתרה לבג"ץ: "השימוש במערכת פרופיילינג בנתב"ג - גזעני ופסול"

המשטרה משתמשת במערכת מבוססת AI לחיזוי סטטיסטי של בלדרי סמים על בסיס פרמטריים סודיים, תוך עיכוב אזרחים תמימים שנערך עליהם חיפוש משפיל. האגודה לזכויות האזרח מבקשת להקפיא את  השימוש עד לחקיקה: "שימוש במחשכים הטומן בחובו סכנה לפגיעה בפרטיות" 

האגודה לזכויות האזרח עתרה היום (ה') לבג"ץ בבקשה שיורה למשטרה לחדול מקבלת החלטות על עיכוב וחיפוש סמים לשבים מחו"ל, בהסתמך על מערכת הבינה המלאכותית שפועלת בנתב"ג בשנים האחרונות. חשיפת השימוש החשאי במערכת הפרופיילינג שפוגעת בזכויות אזרח, כמו גם השאלות החוקיות, המשפטיות והציבוריות שהיא מעלה נחשפו בתחקיר במוסף כלכליסט.
העתירה מוגשת יותר משנתיים לאחר שהאגודה פנתה ליועצת המשפטית לממשלה, גלי בהרב-מיארה, ודרשה להקפיא השימוש במערכת הטכנולוגיות עד אשר השימוש בה יעבור הליך חקיקה סדור.
בעתירה לבג"ץ מציינת האגודה כי המערכת הפועלת בנתב"ג הוכנסה לשימוש משטרתי בחשאיות, ללא הסמכה מפורשת בחקיקה, ופוטנציאל הפגיעה שלה בזכויות אדם עצום. "משטרת ישראל התעלמה מכל הסכנות של הבינה המלאכותית, והכניסה את מערכת הבינה המלאכותית לשימוש בנתב"ג כאילו היה מדובר בגאדג'ט", נטען.
מערכת הבינה המלאכותית בנתב"ג, נכתב, נועדה "לנבא" מי מהשבים לישראל עשוי להיות בלדר סמים, על בסיס יצירת פרופיל סטטיסטי ממידע שמוזן למערכת, והשוואתו לנתונים אישיים של הנוסעים המגיעים לנתב"ג. המערכת מייצרת רשימת מועמדים לחיפוש. כשאלו מגיעים ארצה, נשלחת התראה מהמערכת לשוטר, והאזרח מעוכב לחיפוש סמים בחפציו ועל גופו עם הגעתו.
בעתירה נטען בין היתר, על בסיס החלטות שיפוטיות שהתפרסמו בעבר בין היתר על ידי שופט המחוזי מרכז עידו דרויאן-גמליאל, שהמערכת פועלת כ"קופסה שחורה" שכן היא אוטונומית ומבוססת על למידת מכונה. השוטר אינו מסוגל להבין מדוע המערכת ממליצה על אדם כלשהו, מאלו נתונים היא מסיקה מסקנות ומוצאת דפוסים סטטיסטיים, ומה המשקל שניתן לכל נתון. כמו כן גם בדיעבד לא ניתן להסביר את ההמלצה של המערכת. לכן נטען בעתירה שההחלטות הן שרירותיות, וסותרות את ההלכות ביחס לאופן הפעלת שיקול הדעת בהחלטות שיטור רגישות. כמו כן מדובר בהחלטה שלא ניתן לבחון את חוקיותה. נציין בנוסף כי בעבר, בעקבות דיון שנערך בכנסת בממצאי תחקיר "כלכליסט", הודתה המשטרה שאן בידיה נתונים שיצביעו על יעילות המערכת.
באגודה ציינו בעתירה, כי כמו בכל מערכת בינה מלאכותית בתחום המכונה "שיטור מנבא", גם במערכת נתב"ג קיים חשש ממשי מפני קבלת "החלטות" שמבוססות על פרופיילינג גזעי פסול והטיות נוספות, שנוצרות במכוון או שלא במכוון, וגם כתוצאה מכך שמאגר הנתונים ממנו המערכת "לומדת" הוא מוטה, או מבוסס על הפליית עבר, מידע חסר, כתוצאה משיטור יתר או שיטור חסר, והטיות אחרות. המשטרה אינה מצביעה על אמצעי כלשהו בו נקטה למנוע תוצאה זו, והשימוש במערכת מאיין את האפשרות האפקטיבית לביקורת שיפוטית על שאלת האפליה.
עוד ציינו באגודה כי בעוד השימוש במערכת זו בישראל מתבצע במחשכים ובאופן "פיראטי" כמעט, באיחוד האירופי מתנהל דיון ציבורי, מקצועי ומתמשך בנושא. דיון ציבורי זה הגיע לשיאו בימים אלו בחקיקת חוק הבינה המלאכותית, שבמסגרתו הוחלט לאסור לחלוטין את השימוש במערכות דומות בשטח האיחוד, או לכל הפחות להתנות את השימוש בהן בתנאים נרחבים ודווקניים, הוסבר בעתירה.
עו"ד גיל גן-מור, מנהל היחידה לזכויות אזרחיות חברתיות באגודה לזכויות האזרח: "לצד יתרונות הטכנולוגיה, מדובר במערכת שמשנה באופן מהותי את כללי המשחק וטומנת בחובה גם סכנות של ממש לפרטיות, לכבוד האדם ולזכותו לשוויון. היא מתנגשת חזיתית עם עקרונות יסוד של המשפט החוקתי, המנהלי והפלילי. משטרת ישראל התעלמה מכל הסכנות של הבינה המלאכותית, והכניסה את מערכת הבינה המלאכותית לשימוש בנתב"ג כאילו היה מדובר בגאדג'ט".
עו"ד אן סוצי'ו מהאגודה לזכויות האזרח ציינה: "זו הפעם הראשונה ששופטי בג"ץ ידונו בשימוש במערכות בינה מלאכותית לצורכי שיטור, ולכן קביעותיהם יהוו תקדים חשוב לגבי המגבלות המשפטיות של הסתמכות של גורמי שלטון על בינה מלאכותית בקבלת החלטות רגישות, שכרוכות בפגיעה בזכויות אדם, ולגבי הערובות הנדרשות למניעת הפגיעה או צמצומה".