סגור
באנר דסקטופ כלכליסט טק
רויאל הנסן סגן נשיא ב גוגל מוביל את תחומי הגנת הסייבר הפרטיות והבטיחות בענקית הטכנולוגיה
רויאל הנסן, מוביל את הגנת הסייבר בגוגל. “הפער ייווצר בין אלו שמשקיעים בהתקדמות לבין אלו שמנסים להגן על תוכנות ישנות" (צילום: באדיבות אוניברסיטת בן גוריון)
ריאיון

"מודלי הגנת הסייבר שלנו תופסים דברים שאפילו לא דמיינו"

איך מתאימים את הגנת הסייבר לעידן ה־AI: רויאל הנסן, סגן נשיא בגוגל, מתאר את הדרכים שבהן ענקית הטכנולוגיה מתגוננת ממתקפות סייבר, מזהה תרמיות ופרצות ומתקנת אותן "מהר ובקנה מידה רחב" בעזרת אותם כלי AI שמשמשים את ההאקרים עצמם   

צ’טבוטים שמאפשרים לקצור ידע ולייצר קוד וסוכנים אוטונומיים שיכולים לאתר פריצות ולתקוף — הפתרון של גוגל להתגונן מפני מתקפות סייבר למיניהן היא לעשות שימוש באותם כלי AI שמשמשים את ההאקרים עצמם. “המודלים החדשים יכולים לזהות תרמיות ולחסום אותן או לאתר פרצות ולתקן אותן", אומר רויאל הנסן, סגן נשיא בגוגל, שמוביל את תחומי הגנת הסייבר, הפרטיות והבטיחות של ענקית הטכנולוגיה. "היופי הוא שג'מיני עושה את זה באופן טבעי. אנחנו פשוט אומרים לו: 'עכשיו תבדוק את סוגי הבעיות האלו'".
הנסן עוסק בתחום הבינה המלאכותית מסוף המאה ה־20, ושבע שנים לפני שעבר לגוגל עבד בעיקר בחברות פיננסיות, כמו גולדמן זאקס ואמריקן אקספרס. בתפקידו הנוכחי הוא עוסק בצד ההנדסי/טכני של הגנת סייבר בעידן ה־AI, ובמקביל עובד מול קובעי מדיניות, ממשלות ולקוחות כדי לקדם פתרונות ומדיניות מתאימים.
בריאיון לכלכליסט הוא סיפר על האתגרים העיקריים שאיתם מתמודדת גוגל בתחום הגנת הסייבר, איך ממנפים את יכולות ה־AI להתמודדות עם האיומים שהיא מייצרת, ולמה כל כך חשוב שרופאים ידברו על בינה מלאכותית.
לדבריו, האתגר הגדול ביותר של גוגל בכל הנוגע להגנת סייבר הוא מורכבות התחום. "צריך לעמוד בקצב החדשנות, בבינה מלאכותית, בתחום הסוכנים, שם אנחנו עובדים בקו החזית”, אמר. האירוניה היא שגם אנחנו משתמשים ב־AI בתוך מערכות האבטחה והבטיחות שלנו כדי להגן. זו הדרך היחידה לעמוד בקצב המורכבות הזה. תחשוב על ספאם ופישינג, אנחנו מטפלים בהם בג'ימייל באמצעות AI כבר שנים, לא רק מאז שהגיעו הצ'טבוטים, וגם עכשיו אנחנו חייבים לעמוד בקצב ולהשתמש בכלים הכי מתקדמים. למשל, לקחנו את ג'מיני ויצרנו גרסה מיוחדת שמאומנת על חומרים ספציפיים שקשורים לאבטחה בנוסף למודל הבסיסי".
איך בונים אסטרטגיית הגנה בעידן של מודלי השפה המודרניים, שבו אנו לא יודעים מה האיומים היום או מה הם יהיו מחר?
"אנחנו משתמשים באותה AI כדי לכתוב טלאי אבטחה או תיקונים ולהטמיע אותם באופן אוטונומי. אנחנו מנסים לפעול כמו התוקפים ולהשתמש באותם כלים. בדרך זו אפשר לפעול לא רק מהר, אלא גם בקנה מידה רחב. אני לא צריך אדם לכל טלאי אבטחה. לדוגמה, יש לנו את פרויקט זירו. הקמנו אותו לפני 15 שנה, אחרי שהאקרים סינים פרצו לגוגל. אמרנו שלא נחכה שזה יקרה שוב, ושכרנו 20 מההאקרים הטובים בעולם, שכל תפקידם הוא למצוא פרצות אבטחה — לא רק במוצרי גוגל אלא בכל תוכנה נפוצה. וכמו מרגל טוב, אנחנו 'שורפים' אותן, חושפים אותן כדי שהרעים לא יוכלו להשתמש בהן. נתנו לצוות הזה את הכלים הכי מתקדמים של ג'מיני ושל דיפמיינד, ועכשיו הם מוצאים פרצות זירו דיי בלי להשתמש בידיים. המודלים של AI מוצאים את הפרצות עבורם".
איך זה עובד?
"באותו אופן שבו כשאתה כותב תוכנה עם ג’מיני הוא מבין את הקוד ויודע להמשיך אותו או לכתוב מודול ולבדוק אותו. המודל בונה ייצוג של הקוד, לאן זורמים הנתונים, ואז הוא בודק כל ממשק לאיתור אנומליות, ומנסה להזין קלט בלתי צפוי לכל הממשקים האלה תוך כדי שהוא מתעד את מה שהקוד עושה. אנחנו מכירים את סוגי הפרצות הקלאסיות. אז פשוט אימנו את המודל לבדוק את הבעיות. היופי הוא שג'מיני כבר עושה את זה באופן טבעי. אנשים משתמשים בו כדי לכתוב קוד, אנחנו פשוט מסובבים אותו ואומרים: 'עכשיו תבדוק את סוגי הבעיות האלו'.
"הפרויקט השני נקרא Project Mender. ברגע שמוצאים פרצה ומבינים איפה היא בקוד, מבקשים מהמערכת לכתוב טלאי שיסגור אותה, ואז להריץ בדיקות שיאמתו את התיקון ויטמיעו אותו במוצר. כדי להצליח, לא מספיק למצוא פרצות. צריך לתת לאנשים כלים לתקן אותן בקצב שבו התוקפים מוצאים ומנצלים אותן. כרגע הכלים האלו זמינים רק בתוך גוגל, אבל בסופו של דבר הם יהיו זמינים באופן רחב, כחלק ממוצרים או כקוד פתוח".
איך שחקנים רעים מנסים לנצל את ג'מיני במתקפות סייבר?
"קבוצת המודיעין שלנו בדקה את זה. דבר ראשון, הם משתמשים בג'מיני כעובד ידע: 'ספר לי על החבילה הזו', 'מי משתמש בזה?', 'איפה אני מוצא את התוכנה הזו?', ממש כאילו השתמשו במנוע חיפוש. אבל זו היתה רק ההתחלה. עכשיו אנחנו מתחילים לראות דוגמאות של אנשים שמשתמשים ביכולות הקידוד כדי לנסות לכתוב נוזקות או קוד התקפי. כשחוזרים 40 שנה אחורה, לתולעי המחשב הראשונות, זה אותו דבר: ניצול של אוטומציה. אנשים ימשיכו להשתמש בזה בדרכים מתוחכמות יותר ויותר, אבל עכשיו רף הכניסה נמוך בהרבה. כל מה שצריך זה חיבור לאינטרנט. אתה לא צריך לדעת תכנות או סייבר".
איך מבדילים בין שחקן רע לשחקן טוב, למשל חברת סייבר שמנסה ללמוד איך להגן על לקוחותיה?
"הבעיה הזו קיימת בתחומים נוספים: אנחנו צריכים למנוע מאנשים לפרסם פורנוגרפיית ילדים או להונות אנשים עם אתרים מזויפים. כתיבת קוד זדוני היא עוד דוגמה. אנחנו חוסמים רמות מסוימות של שימוש כשאנחנו חושבים שזה חורג ממידע בלבד. אבל זה איזון עדין. אני לא מסתמך על החסימה הזו לנצח, כי יש מודלים אחרים, לא שלנו, שלא עושים שום חסימה כזו. אפשר להוריד אותם למחשב האישי. לכן אני מדגיש את פרויקט מנדר. הדרך היחידה לנצח היא לאפשר למגינים בכל העולם למצוא ולתקן את הבעיות שלהם בקצב של התוקפים. אי אפשר לעמוד במקום ולקוות שלא ימצאו אותך".
איך אתם מתמודדים עם שימוש ב־LLMs (מודל שפה גדול) להנדסה חברתית, יצירת פייק ניוז או תרמיות כמו Pig Butchering?
"אנחנו משתמשים ב־AI כבר עשור כדי לזהות פישינג, כי אי אפשר לעשות זאת ידנית בקנה מידה כזה. המודלים החדשים מעולים בזיהוי תרמיות גם בלי הרבה דוגמאות. אנחנו מגדירים למודל מדיניות בשפה חופשית, כמו 'זהה וחסום תרמיות שמנסות להוציא כספי קריפטו'. המודל מחפש פעילויות שמתאימות ל'רוח' המדיניות הזו. זה מדהים כי הוא תופס דברים שאפילו לא דמיינו".
האתגר הוא לקבוע מה הקו שמפריד בין תמונה אותנטית למג'ונרטת. הרי כל תמונה דיגיטלית עוברת עיבוד כלשהו.
"בדיוק. הקווים האלו עדיין מתגבשים כי אתה לא רוצה להקפיץ התראות על כל שיפור תמונה קטן. אנחנו עובדים על הצד הטכני, אבל יש גם שאלות של מדיניות ומשפט. הגעתי לישראל, בין היתר, כדי להיפגש עם אנשים ממגזרים שונים, כמו באוניברסיטת בן־גוריון, על פרויקטים שהם לא רק טכניים אלא גם משפטיים ופוליטיים".
מה הדבר העיקרי שקובעי מדיניות לא מבינים לגבי מערכות AI כיום?
"רוב האנשים עדיין לא משתמשים בהן מספיק כדי לקיים שיחה מעמיקה על התחום. אני אומר גם לצוות שלי: תהיו סקרנים, תשתמשו בזה. זו טכנולוגיה דמוקרטית מאוד. אתה תלמד להשתמש בזה עם הילדים, בעבודה. ככל שאנשים ישתמשו בזה יותר, השיחות יהיו טובות יותר. שיחה על AI בבריאות שונה מאוד משיחה על AI באנרגיה. אני צריך שהרופאים ישתמשו בזה כדי שנוכל לדבר על AI ברפואה. אני לא רופא".
אולי רופאים הם לא דוגמה טובה כי זה תחום רגיש מאוד?
"להפך, זו דוגמה מצוינת! אני רוצה שרופא ישחק עם זה בחיים האישיים שלו, כדי שיכיר את היכולות ויוכל לענות על השאלות שאתה מעלה. אני רוצה לנהל שיחה עם מדען חומרים על AI, אבל הוא צריך להתנסות בזה כדי לדעת מה אפשרי. AI היא כלי שכל אחד ימצא איך להשתמש בו בהתאם לחייו שלו".
מה אתה מצפה לראות ב־AI בשנה הקרובה? פעם הייתי שואל את זה על חמש שנים קדימה, אבל בקצב שהתחום מתפתח בלתי אפשרי לחזות את זה.
"אני מצפה ליותר שימוש ב־AI למציאת פרצות אבטחה, מצד המגינים והתוקפים כאחד. אני מצפה לראות התחלה של יכולות של 'אפליקציות בהגנה עצמית', כאלו שמוצאות ומתקנות בעיות בעצמן. אלו יהיו המגמות המרכזיות בשיח על סייבר. מי שיריץ תוכנות ישנות ייפגע יותר, כי האפשרויות שלו מוגבלות. הפער ייווצר בין אלו שמשקיעים בהתקדמות לבין אלו שמנסים להגן על תוכנות ישנות".
בפגישותיך בישראל אתה נתקל בתובנות ייחודיות?
"שאלה טובה. אני נפגש כאן עם צוות Wiz ועם מגוון אנשים. אני אוהב לבוא לכאן כי אתם מבינים עניין. לא צריך להסביר לאף אחד למה זה קריטי. יש כאן הבנה שסייבר הוא לא למען הסייבר, אלא כדי לאפשר רפואה, ניהול מים ואנרגיה בצורה יעילה. אנשים כאן מתחילים מרמת הבנה של חשיבות הדברים שלא תמיד קיימת במקומות אחרים".