סגור
כנס שבוע AI - פאנל אריאל סלפטר, איילת קוטנר, דימה טאטור ואריאל אסרף
(צילום: אולפני Ynet)
AI Week

"אנחנו רואים עלייה של כ-30% בהונאות באימייל שמצליחות"

את הדברים אמרה איילת קוטנר CTO, At-bay בפאנל שנערך במסגרת שבוע ה-AI  של כלכליסט. בפאנל השתתפו גם: אריאל סלפטר, Google Cloud, enterprise cloud BU director, דימה טאטור, VP Cybersecurity, Commit ואריאל אסרף – מייסד שותף ו-CEO ב-Coralogix

האם הבינה המלאכותית עתידה לשנות את תחום הסייבר?
איילת קוטנר, CTO, At-bay: "אנו חברה המשלבת טכנולוגיה, פתרונות טכנולוגיים נגד תקיפות סייבר וגם מבטחת. יש לנו כיום כ-40 אלף עסקים מבוטחים. כגוף שהוא גם חברת ביטוח, ביכולתנו לראות גם את התוצאה של השינוי שהבינה המלאכותית מבצעת במה שתוקפים יכולים לעשות. והיא גם משנה את יעילות פתרונות הסייבר, וגם את היכולת לראות 40 אלף לקוחות, חברות - ואת ההשפעה עליהם".
"הדבר הברור ביותר הוא שחל שינוי ביכולת התוקפים לבצע הונאות באימייל, זה יותר יעיל. זכור לנו כיצד פעם היו התקפות אימייל, תרמיות הנסיך הניגרי וכו', זה נראה קרוב, אבל לא אמיתי. כיום אין בעיה לייצר אימיילים רהוטים שנראים מלוטשים. פעמים רבות הם מכילים מידע אישי עבור הקורבן שהוא המטרה. איסוף מידע ברשת בימינו מתאפשר הודות לבינה המלאכותית והיכולת לבצע עבודת קאסטום של ההונאה לקורבן".
עד כמה ניתן לאתר את זה?
לפי קוטנר, "מה שאנו רואים הוא שהפתרונות הוותיקים יותר בתחום ה-EMAIL SECURITY נהיים פחות ופחות יעילים. זה כבר לא שבלונה שניתן לחפש, זה פשוט עובד הרבה פחות. ורק פתרונות המנסים להבין את ההקשר ואת הסבירות של כל מיני התקפות, יש להם סיכוי כלשהו. אנו רואים בשנתיים האחרונות עלייה של כ-30% בהונאות באימייל שמצליחות".
קיים כיום פרדוקס מעניין. מחד, אנשים רוצים לאמץ AI כאן ועכשיו, מאידך אימוץ AI מגדיל את פער אבטחת המידע. כיצד מתבטא המצב?
אריאל סלפטר, Google Cloud, enterprise cloud BU director מסביר: "זו שאלת טריליון הדולר. כולם מבינים היום שהבינה המלאכותית מייצרת מהפכה אמתית, עסקית וטכנולוגית. כל הארגונים בוחנים כיום בצורה זו או אחרת מערכות AI וממחקר שאנו ערכנו - 74% מהארגונים אינם מצליחים לעבור משלב ה-MVP או ה-POC לשלב הייצור - הם נתקלים בקיר, והסיבה לכך היא חסם אבטחת מידע, חשש מדליפה, חשש מאשליות של ה-LLM עצמם. ובאמת יש כאן פרדוקס אמיתי כי ה-AI מביא עמו יכולות אדירות וחדשות לארגונים ביצירתיות. ומצד שני הוא מביא משטח תקיפה חדש, יכולות פריצה חדשות וכו'".
כמה המשטח מוגן?
"החשש אמיתי. וכדי להתגבר, כי אין להם את הפריבילגיה לא לרוץ קדימה עם פתרונות AI, צריך להטמיע פתרונות שהם SECURE BY DESIGN. כלומר, האייג'נטים נכנסים לסביבה שהיא מאובטחת, סביבה שיורשת את אבטחת הסביבה ומאפשרת לארגונים לשמש כמגדל פיקוח, מה עושים באייג'נטים, איזה LLM הם מריצים – ולתת לארגונים ביטחון שניתן לשחרר לעובדים ולייצר יעילות גבוהה בשלל מחלקות בארגון".
עד כמה אתם מרגישים את הפרדוקס שנע בין האייג'נטים לצורך באבטחת מידע?
דימה טאטור, VP Cybersecurity, Commit: "היום מצד אחד האדפטציה של ארגונים לאייג'נטים, לחברות תוכנה והיישום שלהם פנימה וגם כלפי הלקוחות, זה פשוט מרתון מטורף בו כולם רצים ומנסים כל הזמן להאיץ. מצד שני אנו רואים בעצם עולם שכל אחד מפתח בו אייג'נטים, כל מיני פתרונות סטודיו כאלה ואחרים שעננים מספקים וגם ילדים בגראז' מאחורי הבית הפכו את עולם האייג'נטים למערב פרוע. האייג'נטים האלה מתחברים לכל המערכות הארגוניות, מערכות דאטה, מערכות סליקה - כמעט לכל המערכות. והרבה פעמים לא יודעים מי פיתח את האייג'נט, מה הכניסו ללוגיקה שלו. אי אפשר לדעת מה האינטראקציה בין האייג'נטים ובין ה-LLM, אני חושב שאנחנו נראה את עולם הסייבר וההתקפות באייג'נטים הולך ומתפתח".
האם זה דבר שקל להגן עליו?
טאטור: "היום אנחנו רגילים שמי שמפתח פתרונות אבטחת מידע רגילים להתמודד עם וקטורים של איומים. כיום הווקטורים אינם ברורים, זה מערב פרוע. כל אחד מפתח אייג'נט בבית. כיום הפרוטוקולים מאפשרים מגוון אינטראקציות בין אייג'נטים ומקורות מידע בארגון ועם LLM עצמם, ואין וקטורים ברורים כיצד להגן. ולכן קמות לא מעט חברות ישראליות שמרימות דגל על תפיסת הגנה לאייג'נטים. בשלב זה עדיין איננו מבינים איך בעתיד הקרוב יהיה נכון להגן על אייג'נטים ועל כל עולם הג'נרטיב AI ואנו נראה כמה אסכולות ברורות לכל מיני כיוונים של תפיסת הגנה לאייג'נטים".
האם חוויתם לאחרונה מתקפות סייבר משמעותיות?
אריאל אסרף – מייסד שותף ו-CEO Coralogix: "לאחרונה חווינו מתקפה מעניינת שבמסגרתה לקחו שרשור של מיילים כביכול ביני ובין חברה המבקשת תשלום ופשוט החליפו את המייל למייל שלי ועשו העברה לחשבונות אחרים וטענו שאני מבקש לשלם חשבונית. מאוד קשה לעלות על זה, אך יצאנו מזה. אני מסכים שיש המון מיקוד על הסייבר. Coralogix עצמה מבצעת ניטור ואבטחה. בתחילת השנה רכשנו חברה שמומחיותה היא בתחומי ה-AI, כלומר ניטור ואבטחת מערכות AI – אנו הבנו שאחד הדברים שטרם הוטמעו בארגונים הוא ש-AI אינו תוכנה. ב-AI צורת התקיפה לא תמיד תיראה כמו תקיפה. כאשר תוקפים תוכנה מבינים שיש תקיפה ויש להתמודד עמה. בעולמות ה-AI חברות מאמנות מודל, הרבה מידע פנימי שלהן, ואז הן חושפות צ'אט החוצה. כאשר אני עושה את זה, יכולת של משתמש לשאול אותו שאלות ומהן להבין קונטקסט, אני כאילו לוקח עובד בכיר שלי שיודע דברים סודיים ושם אותו בחדר חקירה ומאפשר לכל אחד לחקור אותו, ולקוות שהעובד לא יחשוף מידע. אנו ראינו בפרויקט עם בנק גדול שהם הוציאו צ'אטבוט החוצה - ואחד התוקפים יצר רצף של שאלות שהביא לחשיפת מידע עמוקה. היכולת היחידה כיום להתמודד בעולמות הניטור והסייבר היא באמצעות מודל נגד מודל".
האם ניתן למנוע דבר כזה?
"בעבר נפגשנו עם בנק שטען שאצלו אין בעיות, יש לו סט של שאלות שמותר לעובדים לשאול ויש סט מסוים של תשובות שמותר למודל לענות. במצב כזה אין צ'אטבוט ולא עשינו כלום. היכולת להגן תהיה לייצר מודל שמתנהג כשופט, אשר שופט כל אחת מהשאלות והתשובות ומנסה להבין האם זה עונה על סט קריטריונים".