הרגולטורים הכריעו: בנקים יורשו להשתמש בבינה מלאכותית מתקדמת – אך לא יוכלו להתחמק מאחריות
דו"ח שפרסם היום הצוות הבין-משרדי לבחינת שימושי בינה מלאכותית בסקטור הפיננסי קובע: גופים פיננסיים לא יצטרכו להסביר כל החלטה אלגוריתמית, אך ישאו באחריות מלאה לנזקים, וכן ייאסר שיווק מטעה של יכולות AI. עוד בדו"ח: דרישה לממשל תאגידי ייעודי וחשש מפגיעה בתחרות מצד ענקיות הטכנולוגיה
הצוות הבין-משרדי לבחינת שימושי בינה מלאכותית בסקטור הפיננסי פרסם היום (ד') את הדו"ח הסופי שלו, המשרטט את גבולות הגזרה החדשים עבור הבנקים, חברות הביטוח ובתי ההשקעות בישראל בשימוש ב-AI.
הדו"ח, שמתפרסם כשנה לאחר שהוצג דו"ח הביניים להערות הציבור (בנובמבר 2024), הוא תוצר של צוות בין משרדי שכלל את בנק ישראל, רשות ניירות ערך, רשות שוק ההון, רשות התחרות ומשרד המשפטים.
הבשורה המרכזית בדו"ח נועדה לפתור את הדילמה המכונה "בעיית הקופסה השחורה", שמנעה עד היום אימוץ נרחב של טכנולוגיות 'למידה עמוקה' (Deep Learning). מדובר במערכות המסוגלות לקבל החלטות מדויקות על בסיס כמויות אדירות של מידע, אך דרך קבלת ההחלטה שלהן נותרת לעתים עלומה גם למפתחים.
הצוות הכריע כי אין לחסום את השימוש בטכנולוגיות אלו, ולצד זאת נקבע מודל פשרה: גופים פיננסיים יחויבו לספק "הסברתיות כללית" על ההיגיון ואופן הפעולה של המערכת, אך לא יחויבו להסביר ללקוח באופן פרטני מדוע התקבלה החלטה ספציפית בעניינו (כגון סירוב למשכנתא או דירוג אשראי מסוים), למעט במקרים חריגים בהם הסיכון גבוה במיוחד ואין חלופות הולמות. סייג זה נועד להבטיח שבצמתים קריטיים לחיי הלקוח, בהם אין פיקוח אנושי, הבינה המלאכותית לא תהפוך ל'פוסק אחרון' שאינו חייב דין וחשבון לאיש.
אולם, ה"אור הירוק" הטכנולוגי מגיע עם תג מחיר משפטי כבד. הדו"ח מבהיר באופן חד-משמעי כי האחריות לכל נזק שייגרם ללקוח כתוצאה מפעולת הבינה המלאכותית מוטלת ב-100% על הגוף הפיננסי המפוקח. משמעות הדבר היא שבנקים וגופים מוסדיים לא יוכלו "לגלגל אחריות" אל מפתחי האלגוריתם או ספקי התוכנה החיצוניים. יתרה מכך, הדו"ח קובע איסור גורף על הכללת סעיפים בחוזים מול הלקוחות המגבילים את אחריות הגוף הפיננסי במקרה של כשל במערכת.
היבט נוסף שמקבל דגש בדו"ח הסופי הוא המלחמה בהטעיה צרכנית ובשיווק כוזב. הצוות זיהה תופעה גוברת של "AI Washing" – מצב שבו חברות מתהדרות בשימוש בבינה מלאכותית כדי למשוך משקיעים או לקוחות, גם כאשר אין מאחורי ההצהרות טכנולוגיה ממשית המצדיקה זאת. הכללים החדשים מחייבים לא רק גילוי נאות על עצם השימוש במערכת, אלא דורשים שהמידע יימסר בשפה פשוטה, נייטרלית ומדויקת, ללא הפרזות ביחס לתועלת המופקת מהטכנולוגיה.
מעבר ליחסים שבין הבנק ללקוח, הדו"ח צולל גם לסוגיות מערכתיות של ממשל תאגידי ותחרות. הרגולטורים ממליצים לגופים הפיננסיים לאמץ מנגנון "AI Governance" (ממשל בינה מלאכותית) סדור, הכולל נהלים ברורים לקבלת החלטות, ניהול סיכונים ובקרה שוטפת על המערכות, בהתאם לאופי השירות והיקף הסיכון. במישור התחרותי, הדו"ח מזהה סכנה של ריכוזיות יתר: קיים חשש כי גופים פיננסיים קטנים יתקשו להתחרות מול הגדולים בשל חסמי כניסה טכנולוגיים, או שייווצר כוח שוק עודף בידי מספר מצומצם של ענקיות טכנולוגיה המספקות את שירותי ה-AI למערכת הבנקאית כולה. הצוות מציע לבחון צעדים למניעת היווצרות "צווארי בקבוק" תחרותיים אלו.
לבסוף, הדו"ח מתייחס לאיומים החדשים בזירת הסייבר וההונאות, ובפרט לעלייתן של טכנולוגיות ה"דיפ-פייק" (Deepfake). זיוף קול או וידאו של לקוחות עלול לשמש להונאות פיננסיות מתוחכמות, והצוות מגדיר זאת כסיכון מערכתי. ההמלצה לגופים הפיננסיים היא לא להמתין למשבר, אלא להטמיע כבר כעת כלים טכנולוגיים לזיהוי דיסאינפורמציה וניסיונות התחזות.































