המתקפה של Claude היא רק ההתחלה: עידן חדש של סייבר אוטונומי כבר כאן
השבוע, כשחברת Anthropic חשפה כי המערכת שלה Claude נוצלה למתקפת סייבר סינית כמעט אוטונומית, היה ברור שמדובר ברגע משמעותי. לא בגלל גודל הנזק, אלא בגלל האופן שבו בוצע: מודל בינה מלאכותית שביצע חלק גדול מהתקיפה בעצמו, כולל סריקות, ניתוח חולשות וניסיונות חדירה, עם מעורבות אנושית מינימלית. לפי החברה, המודל ניסה לחדור לכ-30 ארגונים ברחבי העולם, בהם תאגידי טכנולוגיה גדולים, מוסדות פיננסיים, חברות תעשייה וגופי ממשל, והשיג מספר הצלחות נקודתיות.
כדי להבין את החשיבות של מה שראינו, צריך להתבונן בשינוי שמתרחש כבר עשור בעולם התקיפות. קהילת התוקפים, שבעבר הייתה מורכבת בעיקר ממדינות, קבוצות פשיעה ואקטיביסטים, הפכה בשנים האחרונות לאקו-סיסטם מגוון בהרבה. תעשיית הכופר לבדה גדלה ב-2024 ב-87% במספר הקורבנות התעשייתיים, ומספר קבוצות הכופרה הפעילות עלה ב-60%.
במקביל, "ברוקרים" שמוכרים גישה למערכות ארגוניות כמו VPN, RDP או סביבת ענן, הפכו לשוק פעיל ולמעשה מסודר, עם עלייה של כ-23% במספר הרישומים למכירת גישה בשנה האחרונה. גם המניעים התרחבו: לצד פשיעה וריגול תעשייתי, רואים יותר האקטיביזם דיגיטלי שמתמקד דווקא בתשתיות, ו-ENISA, הסוכנות האירופית לאבטחת סייבר, כבר מעריכה שכ-18% מהמתקפות כיום מכוונות ל-OT, מערכות תפעוליות שלא תוכננו לעולם דיגיטלי דינמי.
הדבר המשמעותי ביותר בכל הנתונים הללו הוא שהיצע התוקפים גדל, ורף הכניסה יורד. היכולות שכבר אינן דורשות מומחיות עמוקה, יחד עם כלים אוטומטיים ומודלים גנרטיביים, מאפשרים לקבוצות קטנות או שחקנים חדשים לפעול בקצב ובעוצמה שבעבר היו שמורים לשחקנים מתקדמים בלבד. ההתקפה באמצעות Claude משתלבת בדיוק בהקשר הזה: היא איננה אירוע מנותק אלא חלק מהמעבר מעולם תקיפה "ידני" לעולם שבו מערכות מבצעות חלק משמעותי מהעבודה.
המשמעות היא שמודל התקיפה משתנה. התקפות בעבר התבססו על תכנון, על שלבים ברורים ועל דפוסי פעולה שחזרו על עצמם. כשהתוקף הוא מודל לומד, ההתנהגות אינה בהכרח צפויה או חוזרת, אלא מותאמת בזמן אמת. מודלים מסוג זה יכולים לשנות אסטרטגיה בהתבסס על תגובות ההגנה, ולכן מערכות אבטחה שלא יזהו דפוסים אדפטיביים עלולות לפספס פעולה שאינה תואמת שום חתימה קיימת.
במקביל לשינוי בצד ההתקפי, יש שינוי לא קטן בצד האחריות. כאשר מודל בינה מלאכותית מסוגל לבצע רצף פעולות בלי פיקוח הדוק, קשה יותר להגדיר היכן נגמרת האחריות של המפתח ומתחילה האחריות של המפעיל. זהו תחום שידרוש הגדרה מחודשת: כפי שמוצרים פיזיים מצריכים תקינת בטיחות, גם מודלים גנרטיביים יצטרכו מנגנוני בקרה קשיחים יותר כחלק מובנה מתהליך הפיתוח, לא כתוספת מאוחרת.
בעתיד הלא רחוק, מערכות AI יפעלו משני צידי המתרס בו זמנית. תוקפים ישתמשו ביכולות למידה וחיזוי כדי למצוא נתיבי חדירה חדשים, ומערכות הגנה יידרשו לנתח בזמן אמת דפוסים מורכבים ולהגיב במהירות שאינה תלויה באדם. תפקידו של האדם לא נעלם אלא משתנה: מיישום פעולות טכניות לניהול ההקשר, קביעת המדיניות והגדרת הגבולות שבתוכם המערכות יכולות לפעול.
כל זה מחייב שינוי תפיסתי אצל ארגונים. מערכות הגנה אינן יכולות להישאר סטטיות או להתעדכן באיטיות. הן צריכות להתנהל כמודלים דינמיים: ללמוד, להסתגל, ולבצע הערכות מצב רציפות במקום להסתמך על מחזורי עדכון קבועים מראש. זה נכון עבור תשתיות קריטיות, מערכות ענן, מוסדות פיננסיים וחברות תוכנה, ובעיקר עבור ארגונים שמתחילים לשלב מודלים גנרטיביים בתהליכי עבודה.
למרות האופי המאיים שנלווה לדיון כזה, האירוע של Claude אינו מבשר אסון. הוא כן מסמן באופן ברור את הכיוון: מעבר הדרגתי מעולם שבו מתקפות מתבצעות על ידי בני אדם לעולם שבו גם התוקף וגם המגן הם מערכות לומדות. ארגונים שיאמצו מודלים של ניהול סיכונים מבוססי בינה, מנגנוני פיקוח והבנה עמוקה של יכולות המערכות יהיו ערוכים הרבה יותר למציאות הזו.
ההתקפה של Claude לא שינתה את עולם הסייבר ביום אחד, אבל היא הדגימה בפועל את מה שכל אנשי המקצוע כבר רואים בשטח: האוטונומיה נכנסת לזירה, וההיערכות אליה הייתה צריכה להתחיל כבר אתמול.
ליאור עטרת הוא ראש מרכז הסייבר של GE Vernova






























