סגור
cai

למה תקצירי ה-AI עשויים להוות סיכון אסטרטגי לארגון שלכם, ואיך תמנעו מהם?

מחקר חדש חושף כי תקצירי הבינה המלאכותית במנוע החיפוש הפופולרי בעולם אמנם משתפרים, אך עדיין מייצרים מיליוני שגיאות המנותקות ממקורות אמינים. עבור שדרת הניהול והסמנכ"לים, ההסתמכות העיוורת של עובדים על "קיצורי הדרך" הללו מחייבת היערכות מחודשת, ניהול סיכונים מוקפד ואימוץ תקני ממשל תאגידי

כאשר עובדי הארגון שלכם מחפשים כיום תשובות במנוע החיפוש של גוגל - בין אם מדובר במחקר שוק, כתיבת קוד או איסוף נתונים לדו"ח דירקטוריון - הם פוגשים בראש עמוד התוצאות את "תקצירי ה-AI" המכונים בשפה המקצועית AI Overviews. המטרה המוצהרת של ענקית הטכנולוגיה היא לספק לגולשים תשובות מהירות ומקיפות, מבלי שיצטרכו להקליק על קישורים חיצוניים. על פניו, מדובר בכלי יעיל שחוסך זמן עבודה יקר למשאב האנושי. אך ככל שהשימוש במודלים הללו הופך לסטנדרט במרחב העסקי, עולה שאלת מיליון הדולר שכל סמנכ"ל חייב לשאול את עצמו: עד כמה הארגון שלנו באמת יכול לסמוך על המידע הזה? מתברר שהסתמכות עיוורת על תקצירים שנוצרו על ידי מכונה, חושפת את החברה למיליוני שגיאות וחצאי-אמיתות בכל שעה נתונה.
מבחן הדיוק: מה באמת מתרחש מתחת למנוע?
כדי להבין לעומק את רמת הדיוק של המערכות הללו, הסטארט-אפ Oumi בשיתוף הניו יורק טיימס, ביצעו מחקר מקיף. הם ניתחו 4,326 שאילתות חיפוש אמיתיות באמצעות כלי המדידה SimpleQA, שנועד לבחון את יכולתם של מודלי שפה לענות על שאלות מבוססות עובדות. התוצאות הראו מגמת שיפור: בעוד שגרסת Gemini 2 ענתה נכונה על 85% מהשאילתות, המעבר למודל החדיש Gemini 3 העלה את רמת הדיוק ל-91%. במבט ראשון, מדובר בנתון שמרגיע מנהלים טכנולוגיים (CTOs). אך כשמביאים בחשבון שגוגל מעבדת כ-5 טריליון חיפושים בשנה, נתון של 9% שגיאה מתורגם למספרים מפלצתיים: עשרות מיליוני תשובות שגויות המופקות ומוצגות למשתמשים - ולעובדים שלכם - בכל שעה ושעה.
פרדוקס המקורות: מידע נכון, סימוכין תלושים מהמציאות
כאן מתגלה עקב אכילס המשמעותי ביותר שמאיים על תהליכי קבלת ההחלטות בארגון. למרות שהדיוק העובדתי אכן השתפר עם השקת Gemini 3, יכולת האימות של המידע (Verifiability) ספגה מכה אנושה. המחקר מצא כי לא פחות מ-56% מהתשובות הנכונות של המודל היו למעשה "חסרות בסיס" (Ungrounded). המשמעות עבור הארגון מטרידה: המקורות והקישורים שגוגל מצרפת לתקצירים פשוט לא מגבים את הטענות המוצגות. התוצאה היא אשליית אמינות מסוכנת. עובד שמכין תוכנית עסקית מקבל עובדה ולצידה קישור סמכותי לכאורה כהוכחה. בפועל, בדיקה של אותו קישור תגלה לעיתים קרובות שאין לו כל קשר למידע שהוצג.
הבעיה מקבלת משנה תוקף כשבוחנים את ההשפעה ההתנהגותית על המשתמשים. מחקר של מכון Pew Research Center, שבדק עשרות אלפי שאילתות, הציג ממצאים חד-משמעיים: תקצירי ה-AI גרמו לירידה דרמטית של כ-50% במספר ההקלקות על אתרי מקור. כאשר עובד רואה סיכום סמכותי ורהוט, הוא נוטה לוותר על בדיקת המקורות וצורכת את המידע כ"תורה מסיני" (At face value). ויתור זה על צריכת מידע ביקורתית פותח פתח קריטי לטעויות שזולגות לתוך שורות הקוד, דוחות פיננסיים, שירות לקוחות והחלטות אסטרטגיות.
1 צפייה בגלריה
עיוורון אלגוריתמי: הסכנה החדשה שמאיימת על ארגונים בישראל
עיוורון אלגוריתמי: הסכנה החדשה שמאיימת על ארגונים בישראל
כך תמנעו משימוש שגוי בבינה מלאכותית בארגון
(shutterstock)
הטמעה אחראית: המודל הנכון, בקרת איכות אנושית ויכולת מעקב
ארגונים הבוחרים לשלב בינה מלאכותית בפעילותם השוטפת חייבים לעבור מגישה של אימוץ עיוור לאסטרטגיה של הטמעה מבוקרת. השלב הקריטי הראשון הוא בחירה קפדנית של מודל השפה הנכון, כזה המותאם במדויק לצרכים העסקיים ולעולמות התוכן של החברה. אולם הטכנולוגיה לבדה אינה מספיקה; קיימת חובה עסקית לשלב "אדם בלולאה" (Human-in-the-Loop) כחלק מובנה מתהליכי העבודה. תפקידו של הגורם האנושי הוא לבקר את התוצרים, לוודא שהמערכת נשענת על מקורות מידע איכותיים ומהימנים, ולאמת שאין סתירות פנימיות בנתונים המופקים.
יתרה מכך, תשתית ה-AI הארגונית חייבת לכלול מערכות מעקב ובקרה מתקדמות, המעניקות להנהלה שקיפות מלאה ויכולת לנטר בזמן אמת אילו שאלות נשאלו על ידי משתמשים ומהן התשובות המדויקות שהמערכת סיפקה להם.
חשוב להבין את פערי הסיכון הדרמטיים: טעות של מודל שפה עבור אדם פרטי בשימוש יומיומי מסתכמת לרוב באי-נוחות זניחה. לעומת זאת, שגיאה של מודל ארגוני המעניק שירות ללקוחות קצה טומנת בחובה סכנה מוחשית והרסנית. תארו לעצמכם תרחיש שבו מערכת ה-AI של החברה מספקת ללקוח הנחיה שגויה לגבי חיבור מוצר לרשת החשמל, מוסרת מידע מוטעה על אזורים שבהם מותר או אסור להחנות, או מפיקה הוראות הרכבה פגומות למוצר מורכב. טעויות אלו, שמקורן באלגוריתם, חורגות הרבה מעבר למרחב הדיגיטלי; הן עלולות להסב לארגון נזק תדמיתי וכלכלי אדיר, לחשוף אותו לתביעות משפטיות, ובמקרים החמורים ביותר – לגרום לנזק פיזי ממשי ואף לעלות בחיי אדם.
מניהול ידע לניהול סיכונים מבוסס תקנים
בעידן שבו בינה מלאכותית מוטמעת בכל כלי ארגוני, האחריות על בקרת האיכות עוברת ישירות לשולחן ההנהלה. הפתרון אינו חסימת השימוש ב-AI, אלא ניהול חכם ומבוסס של הסיכונים הכרוכים בו. ארגוני B2B חייבים להגדיר נהלי עבודה ברורים לאימות מידע שמופק על ידי מודלי שפה, ולאמץ מסגרות ממשל תאגידי (כדוגמת תקן ISO 42001 לניהול מערכות בינה מלאכותית). יחד עם זאת, גם ההכשרה של הגורמים הנמצאים בתהליך, צריכה להתאים את החדשנות, התפקיד וההבנה הארגונית.