הדרך הבטוחה להיכשל בתכנון וקבלת החלטות באמצעות AI: דאטה לא אמין
כש- AI נכנס לחדר ההנהלה, איכות הנתונים הופכת לניהול סיכונים. כיצד מנהלים יכולים לוודא שהנתונים הארגוניים נשארים איכותיים, עקביים ואמינים כדי ש- AI ישמש מנוע צמיחה וקבלת החלטות נכונות ולא מקור לסיכון?
כמעט כל הנהלה כבר סימנה לעצמה יעד: “להכניס AI לתהליכי קבלת החלטות”. "ניתן ל-AI לסרוק את הנתונים והמספרים, לנתח את המשמעות ולתת לנו המלצות", הם אומרים לעצמם. אלא שלפני שמריצים מודלים, לפני שמחברים צ’אט ארגוני ולפני שמניעים פרויקט שאפתני - צריך לוודא דבר אחד בסיסי: שהארגון יודע על מה הוא מסתמך.
אם הדאטה הארגוני "מלוכלך" ה-AI עלול להציג תמונת מצב חלקית או מוטה, להחמיץ הקשרים חשובים, להפיק תחזיות לא מדוייקות ובעיקר - לייצר בטחון שווא. זה דומה לניווט ברכב עם אפליקציה מצוינת שמסתמכת על מפה לא מעודכנת: הנסיעה תהיה מהירה - אבל ליעד הלא נכון.
האם הדאטה ראוי לאמון?
קבלת החלטות על בסיס נתונים לא איכותיים או נתוני זבל, יוביל ארגונים להחלטות שגויות.
דמיינו מנהלת בכירה ברשת קמעונאית שמקבלת המלצה ממערכת AI להפחית מלאי ב־15% בקטגוריה מסוימת, כי “הביקוש במגמת ירידה”. ההמלצה מגיעה עם גרפים והסברים משכנעים. רק שהמציאות שונה: מתברר שנתוני החזרות והחלפות לא נרשמו באופן אחיד וחלק מהמכירות לא נקלטו. ה AI -לא “שיקר”, הוא פשוט הסיק מסקנות מתמונה לא נכונה. התוצאה: אובדן מכירות, פגיעה בשירות ובחווית הלקוח.
ה- AI לא מייצר אמת. הוא מייצר המלצות על בסיס הנתונים שהוא מקבל ואם הנתונים חלקיים, סותרים או לא אחידים - מתקבלות תובנות שנראות “חכמות”, אבל בפועל עלולות להוביל להחלטות שגויות, לפגיעה בביצועים ולנזק כספי.
שלוש נקודות כשל קלאסיות
כאשר מדובר על איכות נתונים ואחידות נתונים, מדברים על 3 נקודות כשל קלאסיות:
אין "גרסה אחת של האמת" - אותו נתון יכול להיראות אחרת בשיווק, בכספים ובמכירות כי ההגדרה שונה, המקור שונה, או תהליך העדכון שונה. כשזה קורה, AI מחבר בין עולמות שלא מדברים באותה שפה ומחזיר תשובה שנראית סבירה, אבל נשענת על ערבוב של נתונים.
אי אחידות בתוך שדות "פשוטים" - במקום אחד “ראשון לציון”, במקום אחר “ראשל״צ”, ובמקום שלישי “ראשלצ”. בעיני אדם מדובר באותה העיר. עבור המחשב אלו ישובים שונים. וכשזה קורה בקנה מידה רחב (שמות לקוחות, מוצר, סניף, סטטוס הזמנה), ההשוואות והניתוחים נפגעים.
דאטה לא עקבי לאורך זמן - גם אם ניקינו נתונים, זה לא מספיק בפעם אחת. בלי מנגנון שוטף שמזהה חריגות ומטייב נתונים על בסיס קבוע האיכות נשחקת במהירות - והמודלים ממשיכים לעבוד כאילו הכול תקין.
מה מנהלים צריכים לדרוש לפני שמתקדמים ל- AI?
נושא ה-AI הוא נושא ניהולי ולא טכנולוגי. כי ההחלטות שמתקבלות בעזרת AI הן החלטות הנהלה: תמחור, תקציב, תחזיות מכירה, תמהיל מלאי, חיזוי נטישה, יעילות תפעול, חוויית לקוח, סיכונים פיננסיים ועוד. ולכן מנהלים צריכים לשאול שאלה אחת לפני כל שימוש משמעותי ב-AI: כמה אנו סומכים על הדאטה שמאחורי ההמלצה?
מנהלים חייבים לדרוש מאנשי הדאטה שלהם סדר באמצעות כמה נקודות: בעלות ברורה על מידע קריטי - מי אחראי על נתוני הלקוחות, מי על נתוני מוצר, על הכנסות; סטנדרט אחיד למדדים - שפה ארגונית אחת, KPI אחיד והגדרה מוסכמת לסטטוס ותהליכים; מנגנון איכות מתמשך - ביצוע בדיקות שוטפות לזיהוי כפילויות, רשומות חסרות, חריגות ונתונים לא מעודכנים; שקיפות – יכולת לשאול בכל תובנה שמתקבלת – מה המקור של הנתונים? שקיפות בונה אמון.
מנהלים בכירים לא נמדדים לפי כמה מהר הם מאמצים AI אלא לפי איכות ההחלטות שהוא מאפשר להם לקבל. לפני שמאיצים פרויקט, ודאו שיש לכם "גרסה אחת של האמת" ונתונים שאפשר לסמוך עליהם- אחרת אתם לא מכניסים בינה מלאכותית לארגון - אתם מכניסים סיכון עסקי לטעויות ניהוליות.
עמית סיון הוא מנכ"ל S.P.Data, מפיצת Qlik בישראל































