סגור
ד"ר לימור זיו מנכ"לית  Humane AI
ד"ר לימור זיו (צילום: תמי בר שי)
דעה

כשהמרוץ ל-AI הופך להימור מסוכן על עתיד החברה

חברות ממהרות לאמץ בינה מלאכותית כדי לזכות ביתרון עסקי ומיתוגי. אך לעיתים קרובות הן לא מבינות שהן מהמרות על הנכס היקר ביותר שלהן: הדאטה. ויתור על שליטה בו פירושו פתיחת הדלת לסיכונים שעלולים למחוק את מה שנבנה במשך שנים

דאטה ארגוני, המניע את המערכות העסקיות של כל חברה, הוא הנכס היקר ביותר היום. ברגע שחברות מקשרות את הדאטה שלהן למודלים של בינה מלאכותית, הסיכון לחשיפת הדאטה גדל באופן משמעותי. מה הבעיה? לעיתים קרובות קשה להבחין שהחברה נמצאת בסיכון עד שכבר מאוחר מדי.
חברות שואפות להיעזר בכוחם של כלים מבוססי AI כדי לשדרג את תהליכי העבודה, להאיץ ביצועים ולספק תובנות עסקיות עמוקות יותר - כל זאת בקלות וביעילות. אך כל שנדרש כדי לחשוף דאטה רגיש הוא חיבור לא מבוקר בין מערכות AI לבין הדאטה הארגוני.

הדילמה הקריטית של כל חברה היום

מודלים של AI כיום אינם מסתכמים רק בצ'אט בוטים ליצירת טקסט. הם יכולים להתחבר ישירות למערכות פנימיות ולדאטה ארגוני, ולספק תשובות מותאמות אישית לכל שאלה, בהתבסס על הדאטה הספציפי של החברה. לדוגמה, ניתן לקשר את ChatGPT לחשבון הדואר האלקטרוני של החברה או לאפשר לו גישה לקוד הפיתוח ב-GitHub לאופטימיזציה. אך כל חיבור כזה חושף את הדאטה לפוטנציאל לניצול לרעה, וההשלכות עלולות להיות הרסניות.
הדאטה שלכם כולל רשימות לקוחות, קוד לפיתוח, תהליכי חברה פנימיים ותובנות עסקיות קריטיות. כל התממשקות לכלי AI עשויה להאיץ את הצמיחה ולהביא יתרונות עצומים, אך בו בזמן היא עלולה לחשוף את כל מה שהחברה עבדה עליו במשך שנים. כל דליפה של מידע פנימי ורגיש עשויה להוביל לפגיעות חמורות ולפגוע ביכולת של החברה לשוב לפעולה תקינה.
אז AI - כן או לא? השאלה האמיתית היא לא אם לאמץ, אלא איך לעשות זאת חכם, בטוח ובאופן שמחזק את החברה במקום לסכן אותה.

הזרקת פרומפטים ודליפת דאטה

בכנס Black Hat בלאס וגאס הציגו חוקרי האבטחה מייקל ברגורי ותמיר ישי שרבט מחברת Zenity מתקפה מתוחכמת על מערכות AI שניצלה חולשה במנגנון ה־Connectors של OpenAI, פיצ’ר שמאפשר לחבר את ChatGPT לשירותים חיצוניים כמו Google Drive, Outlook, GitHub ועוד.
במתקפה, שכונתה AgentFlayer, התוקפים יצרו מסמך ״מורעל״ שנשמר ב־Google Drive של הקורבן, בין אם הועלה על ידו או שותף איתו. בתוך המסמך הוסתר פרומפט זדוני קצרצר בגופן לבן זעיר כך שלא ניתן להבחין בו בעין אנושית, אך המודל קורא אותו ללא קושי. כאשר הקורבן ביקש מ־ ChatGPT בקשה כלשהי, למשל ״סכם את הפגישה עם סם״ (או כל בקשה דומה אחרת), המודל ביצע בפועל את ההוראות המוסתרות: חיפוש מפתחות API רגישים בחשבון ה־Drive והטמעתם בכתובת URL שנראית כקישור תמים, אך למעשה מפנה לשרת בשליטת התוקף. המידע הרגיש נשלח החוצה באופן אוטומטי - ללא כל פעולה מצד המשתמש (Zero-Click).
השיטה הזו, המכונה indirect prompt injection, מאפשרת לתוקף להחדיר למודל הוראות ״עוקפות״ המספקות גישה וחשיפה של דאטה ארגוני, מבלי שהמערכת או המשתמש יחשדו בכך. זהו סיכון חמקמק במיוחד מכיון שהוא מתממש ללא כל שיתוף פעולה מצד המשתמש. כל חיבור בין מודל AI לדאטה ארגוני, חושף את החברה לפגיעות משמעותית שיכולה להתפשט במהרה ולפגוע בנתונים הקריטיים ביותר שלה.

הייתם מוכנים לחשוף את הדאטה הרגיש ביותר שלכם לעיני כל?

גם כשהחברות המפתחות מודלי AI מצהירות על ״אבטחת מידע״ מתקדמת, בפועל המערכת רחוקה מלהיות חסינה. לאחרונה דווח על מקרים בהם משתמשים שפתחו את ליבם בפני ChatGPT וסיפרו על פרידות כואבות, סכסוכים משפחתיים, בעיות בריאות ומצבים אישיים רגישים, גילו להפתעתם שהטקסטים הללו הופיעו ללא אזהרה בתוצאות החיפוש של גוגל. דמיינו את הרגע בו לקוח גדול נחשף להתייעצות שלכם על כישלון עסקי, או שמידע רפואי פרטי שלכם נחשף לעיני כל. מה שנכתב מתוך תחושת ביטחון במרחב דיגיטלי ״חסוי״ מצא את דרכו לאינטרנט הפתוח, נגיש לכל אדם עם חיבור לרשת.
אם כך קורה עם שיחות פרטיות של משתמשים, אפשר רק לדמיין את ההשלכות על דאטה ארגוני: חיבור בלתי מבוקר למערכות AI עלול לחשוף הכול, מסודות מסחריים ותובנות אסטרטגיות ועד פרטים אישיים על לקוחות, ולגרום לנזק כספי, משפטי ותדמיתי שקשה יהיה לשקם.

הפתרון: ניהול דאטה איכותי ומבוקר

בעידן שבו ה-AI חודר לכל תהליך עסקי, הדאטה הוא גם הנכס האסטרטגי החשוב ביותר של הארגון וגם נקודת התורפה המסוכנת ביותר שלו. כשהמודלים יכולים לגשת לכל פיסת מידע, ניהול דאטה איכותי ומבוקר הוא תנאי להישרדות החברה.
ניהול נכון פירושו שליטה מלאה בכל נקודת מגע בין הדאטה למערכות ה-AI: לדעת בכל רגע איזה מידע מוזן, לאן הוא עובר ואיך הוא נשמר. זה אומר ניקוי ואופטימיזציה שוטפים, הגבלת גישה למידע רגיש, ותיעוד מדויק של כל אינטראקציה.
שמירה על דאטה ברמה הזו מחייבת מערך בקרה חכם, המשלב שיפור איכות, שקיפות מלאה וניהול קפדני - כדי להפיק את מלוא הערך מהטכנולוגיה מבלי לפתוח פתח לפגיעויות שעלולות למוטט מערכות שלמות.
חדשנות טכנולוגית לא יכולה לבוא על חשבון ביטחון, פרטיות ואיכות הדאטה. בעולם שבו ה-AI נוגע בכל שורת קוד, חברה שלא מגינה על הדאטה כאילו היה ה-הון שלה, למעשה בפועל מהמרת על עצם קיומה.
ד״ר לימור זיו היא מנכ״לית Humane AI, סטארט-אפ המתמחה בטיוב דאטה לשילוב אופטימלי במערכות AI