סגור
דאנס 100

חובת הדיווח של חברות ציבוריות על שימוש בבינה מלאכותית – בין אתגרים להזדמנויות

עם התפשטות הבינה המלאכותית בשוק העסקי, חברות ציבוריות ניצבות בפני אתגר: כיצד יש לדווח למשקיעים על שימוש בבינה מלאכותית?

עם התפתחות הבינה המלאכותית (AI) והשילוב הגובר שלה בפעילות העסקית של חברות ציבוריות, עולה שאלה מרכזית - האם וכיצד לדווח על שימוש ב-AI למשקיעים? בעוד שבארה"ב כבר הוצעו כללים חדשים, המצב בישראל נותר פחות ברור.
כידוע, חברות ציבוריות מחויבות לדווח על מידע מהותי שעשוי להשפיע על החלטת המשקיע הסביר. מידע שקשור לשימוש שחברה ציבורית עושה ב-AI, עשוי להיחשב מהותי אם מדובר בעסקה גדולה, אם יש בו סיכון משמעותי, או שעשויה להיות לו השפעה על התוצאות הכספיות.
מכאן ניתן להסיק שעל אף שבינה מלאכותית לא משנה את הבסיס של חובת הדיווח, עשויות לצוץ שאלות ייחודיות בנוגע לאופן הדיווח. ניתן למנות אם כן, מספר שיקולים חשובים:
הגדרת בינה מלאכותית: בדוח שפורסם לאחרונה על ידי מספר רגולטורים פיננסיים בישראל, בכל הנוגע לרגולציה על בינה מלאכותית במגזר הפיננסי, נסקרו מספר הגדרות אפשריות ושיקולים ביחס לאופן שבו יש להגדיר בינה מלאכותית, ולבסוף נבחרה ההגדרה הבאה – "מערכת מבוססת מחשב, הפועלת בדרגות שונות של אוטונומיה, במטרה להפיק תוצרים כגון תוכן, תחזיות, המלצות או החלטות, אשר עשויה להיות לה השפעה על משקיעים, לקוחות, או על פעילותו של הגוף המפוקח."
הגדרה רחבה זו עשויה להביא לכך ששימוש בטכנולוגיה פשוטה יחסית (כמו למשל שליפת מידע באמצעות שאילתא ב-SQL) תכפיף גופים מפוקחים לרגולציה של בינה מלאכותית. עם זאת, בהחלט סביר להניח שההגדרה תשתנה.
אז מה בכל זאת צריך לעשות? חברות ציבוריות מורגלות בזיהוי הנושאים שעשויים להיות מהותיים עבור המשקיעים שלהם, ולכן הדגש צריך להיות על ההזדמנויות והסיכונים הייחודיים שבאימוץ טכנולוגיות חדשות, ולא בהכרח על הגדרות שמשתנות לפי זמן או הקשר.
אופן הדיווח: גם בהקשר זה, דו"ח הרגולטורים הפיננסיים, שופך מעט אור. הדו"ח עוסק אמנם בחובת הגילוי על שימוש בבינה מלאכותית, אך בעיקר בהיבט הצרכני.
עם זאת, אחת מהמלצות הדו"ח קובעת כי ביחס לאופן הדיווח – "הגילוי צריך להתמקד במאפיינים הייחודיים של הפעילות הנובעים מהטכנולוגיה (בהשוואה למצב בו הפעילות הייתה נעשית ללא מערכת של בינה מלאכותית)". ניתן להסיק מכך גם לגבי אופן הדיווח של חברות ציבוריות, שצריך להתייחס לשינוי הארגוני שנוצר בחברה הציבורית כתוצאה מהשימוש בבינה מלאכותית. בדומה קבע יו"ר ה-SEC היוצא, כי ביחס לדיווחים על AI, אין להשתמש בשפה תבניתית שמופיעה באופן חוזר בדיווחים, אלא להתמקד בהשפעות הייחודיות.
AI "וושינג": עם ההתפתחות ה-AI, חברות רבות מבקשות להרשים משקיעים עם הצהרות מופרזות בנוגע לשימוש ויכולות ב-AI. מדובר בתופעה פסולה, שכבר נידונה במסגרת מספר תביעות של ה-SEC והליכי אכיפה פרטיים בארה"ב, וצויינה לשלילה גם בדו"ח הרגולטורים הפיננסיים. לא מן הנמנע שנראה גם בישראל התפתחות של הליכי אכיפה שמבקשים להעניש חברות ציבוריות ומנהלים שמתפארים שלא בצדק משימוש בבינה מלאכותית, ועל כן, חברות ציבוריות נדרשות לנקוט זהירות בדיווחים על שימוש ב-AI.
גיבוש מדיניות בינה מלאכותית: הדרך היעילה והאפקטיבית ביותר לנהל את הסיכונים הנובעים מ-AI, היא גיבוש מדיניות בינה מלאכותית ברמת החברה (נושא שלאחרונה צבר תאוצה גם כ-"AI Governance"). כמו מסמכי מדיניות אחרים של החברה, מדיניות בינה מלאכותית תכווין את התנהלות החברה בכל הקשור לשימוש בבינה מלאכותית, תסייע בניהול הסיכונים של החברה בתחום ותסייע לבניית אמון מול משקיעים מהציבור.
לסיכום, שימוש בבינה מלאכותית טומן בחובו הזדמנויות רבות, אך במקרה של חברות ציבוריות, יש לשים לב שדיווח חסר עלול לחשוף את החברה לסיכונים משפטיים, בעוד דיווח מוגזם עשוי אף הוא להוביל לתביעות עלAI Washing . בראייה ארוכת טווח, פיתוח מדיניות ברורה לדיווח על שימושי בינה מלאכותית יחזק לא רק את עמידתן של חברות בדרישות הרגולציה, אלא גם את אמון המשקיעים.
מאת עו"ד רן יוסף, מחלקת הטכנולוגיות המתקדמות ו-AI, ארנון תדמור-לוי
d&b – לדעת להחליט