76% מהעובדים כבר לא בודקים את תשובות ה-AI
בשנתיים האחרונות התחולל שינוי חד ומהיר ביחס העובדים לבינה מלאכותית. אם בתחילת הדרך מודלים גנרטיביים סבלו מחוסר אמון עמוק, שכלל שימוש תדיר במונח הזיה לתיאור טעויותיהם, הרי שהיום מגמה הפוכה מתחזקת: אמון כמעט מלא בפלט, גם כשהוא אינו תקין. שיפור האלגוריתמים, הדיוק והנגישות הפכו את ה-AI לכלי מרכזי בחיי היומיום, אבל המחיר הולך ומתברר
בממצאי שטח שמפרסם ארגון ה-AI הישראלי עולה תמונה חד משמעית: 76% מהמשתמשים אינם מבצעים בדיקה משמעותית למידע שמתקבל. למעשה, רובם מקדישים פחות משלוש דקות לאימות, ולעיתים כלל לא טורחים לעצור ולשאול אם המידע אמיתי, מוסמך או הגיוני. תופעה זו מכונה בממצא "פער השיפוט הקריטי", והיא מתוארת כמעין עיוורון אלגוריתמי - מצב שבו נוח לנו כל כך לסמוך על המכונה, עד שאנו מפסיקים להפעיל את שיקול הדעת.
מחוסר אמון לאמון עיוור בשנתיים: שינוי תרבותי מסוכן
המעבר מספקנות טבעית לאמון כמעט מוחלט אינו מקרי. הטכנולוגיה השתפרה, השפה נעשתה רהוטה, והמודלים מציגים ביטחון עצמי גבוה. אך הבעיה טמונה דווקא בכך שהשפה משכנעת: גם כאשר המידע שגוי לחלוטין, הטון, הניסוח והבהירות יוצרים תחושת מהימנות.
הדבר בולט במיוחד בארגונים בישראל: דוחות רשמיים, נהלים, מסמכי מדיניות ואף פוסטים של משרדי ממשלה כוללים משפטים שמרמזים על חוסר בדיקה. החל מטקסטים מבוססי AI שבהם נותרו משפטים טכניים כמו "כמודל שפה" שנשכחו בעריכה, ועד שימוש באותם דפוסי ניסוח שניכרים כטביעת אצבע של המערכת.
כאשר תכני GenAI חודרים לשיח הארגוני ללא בקרה, ההשפעה אינה רק סגנונית. היא עמוקה הרבה יותר: ניחלשת היכולת לשפוט מידע, לאתגר אותו ולהצליב מקורות. ה-AI הופך לברירת מחדל, לא לכלי עזר.
ליאור אברהם, מנכ"ל ארגון ה-AI הישראלי, מסביר: "אנחנו לא מופתעים מהתוצאות, אבל כן מהיעדר ההבנה של הסיכון. רוב הציבור מפתח תחושת מוגבלות טכנולוגית מול ה-AI. כמו שהתרגלנו להסתמך לחלוטין על WAZE או על גוגל, עד שקשה לנו להתנהל בלעדיהם, כך קורה גם כאן. ההבדל הוא שה-AI אינו עוד כלי, אלא טכנולוגיה שמשנה את אופי החיים ואת תהליכי קבלת ההחלטות. לכן הסתמכות עיוורת עליו מסוכנת, ובארגונים הסיכון גדול שבעתיים לעומת ההסתמכות על אפליקציית ניווט".
הסכנה המיידית: טעויות נראות אמיתיות יותר מאי פעם
המהירות שה-AI מספק מייצרת אשליה מסוכנת: אם זה נשמע מקצועי, זה כנראה נכון. בפועל, חלק מהטעויות הכי חכמות הן גם הכי מזיקות.
בארגונים, טעויות אלו עלולות להוביל לנזק תדמיתי, משפטי או תפעולי. המקרים שכבר נצפו כוללים:
1. מסמכי אסטרטגיה עם נתונים מומצאים: מנכ"לים קיבלו דוחות שוק עם צמיחה בענפים שלא קיימים. בהיעדר הצלבת מידע, המסמכים עברו הלאה והפכו בסיס להחלטות.
2. פגיעה תפעולית: ארגונים שהסתמכו על AI לכתיבת הוראות הפעלה גילו שהמערכת המציאה שלבים שאינם קיימים, מה שהוביל לעיכובים, משברים מול לקוחות ובלבול צוותים.
3. טעויות משפטיות: עורכי דין מצאו עצמם מציגים בבית משפט ציטוטים שנשמעים אמיתיים לחלוטין אך מקורם אינו קיים.
4. כישלונות תקשורתיים: פוסטים רשמיים של גופים ציבוריים יצאו עם טעויות עובדתיות, שמקורן היה פלט AI שלא נבדק.
חברות הביטוח מסרבות לבטח ארגונים בפני ה - AI
אל חוסר האמון, הדיוק וההסתמכות העיוורות נדרשות להכנס חברות הביטוח ולהגן על ארגונים.
לצד הסיכונים הכרוכים בשימוש נרחב ב-AI, ענף הביטוח נדרש להתמודד עם שאלה קריטית: האם בכלל ניתן לבטח ארגונים המשתמשים במודלי שפה גדולים?
בשנה האחרונה נרשם גל של חברות ביטוח גדולות, ביניהן WR Berkley ,AIG וGreat American, שביקשו מרגולטורים להחריג משתמשי AI מפוליסות רגילות - בטענה שהפלט של מערכות AI הוא "קופסה שחורה" בלתי ניתנת לתמחור סיכונים.
זו בדיוק הנקודה שבה ארגון ה-AI הישראלי נכנס לתמונה. הארגון מציע מסגרת של הכשרה, נהלי בקרה, מדיניות ניהול סיכונים ותיעוד - במטרה לאפשר לארגונים ישראליים להטמיע AI בצורה אחראית ומבוקרת.
כך, כאשר שוק הביטוח יתייצב מול דרישה לביטוח AI, אלו שיפעלו לפי הסטנדרטים יוכלו להגיע מוכנים - ולהגדיל את הסיכוי שהפוליסה שלהם תכסה גם אירועים הנובעים משימוש ב-AI.
במילים פשוטות: ארגון ה-AI הישראלי לא רק מזהיר מפני ההסתמכות העיוורת - הוא מציע פתרון ממשי. הכשרה, נהלים, תיעוד, ושקיפות - כל אלה עשויים לבנות עולם שבו גם המבטחים מוכנים לקחת on-board את הסיכון, כשיש מערכת אחראית וניהול מבוקר של AI.
מה עושים? המלצות ברורות למנהלים ולעובדים
הבעיה אינה ב-AI עצמו. הבעיה בהתנהגות המשתמשים. הפתרון דורש שינוי תרבותי, לא טכנולוגי בלבד.
1. הפיכת בדיקה להנחיה מחייבת: על ארגונים לכלול הליך אימות לכל פלט AI, במיוחד במסמכים אסטרטגיים, משפטיים או ציבוריים.
2. כלל 3 הרבעים: לפחות 75 אחוז מהמשימות הקריטיות צריכות לכלול חשיבה אנושית פעילה: הצלבת מידע, בדיקה ידנית, שימוש בידע פנימי.
3. הכשרות מדויקות: לא עוד הדרכות של "איך להשתמש ב-ChatGPT או מה לעשות איתו". ההדרכה הנכונה היא: "איך לשפוט, לבדוק, להטיל ספק ולהצליב מקורות".
4. שימוש במקורות חיצוניים: כאשר AI מספק מידע, חובה לבקש ממנו את המקורות, לבדוק אותם ולוודא שהם אכן קיימים.














