סטארט-אפ ישראלי גייס 80 מיליון דולר להגנה מפני מודלי AI תוקפניים
חברת Irregular שהוקמה ב-2023 עובדת עם OpenAI ו-Anthropic לבחינת איומי AI ורושמת מהן הכנסות משמעותיות; סקויה ורד פוינט השקיעו בשני סבבים רצופים, אסף רפפורט השקיע סכום משמעותי
תעשיית הסייבר הישראלית הרגילה את המדינה לשבירת שיאים, ויז, סייברארק הן רק חלק מהדוגמאות לשיאים. היום נחשפת חברת Irregular (לשעבר Pattern Labs) אשר הצליחה לגייס 80 מיליון דולר בתוך זמן קצר מאוד. הסבב הראשון בו השקיעה סקויה 30 מיליון דולר הביא בעקבותיו סבב נוסף בהפרש של שבועות ספורים של כ-50 מיליון דולר במסגרתו סקויה השקיעה שוב בחברה לצידה של קרן ענק נוספת - רד פוינט ו-Swish Ventures של עומרי כספי ושורה של יזמים אנג'לים מקומיים בראשות אסף רפפורט שלכלכליסט נודע כי השקיע סכום משמעותי ואופיר ארליך מ-EON. החברה שהוקמה ב-2023 כבר רושמת הכנסות משמעותיות ומעסיקה 25 עובדים מרביתם בישראל.
הגיוס המהיר אינו אחד השיאים היחידים ששוברת החברה שנחשפת עתה. החברה שעובדת עם מעבדות ה-AI המובילות בעולם, בהן OpenAI ו-Anthropic מצליחה לרשום מהן הכנסות משמעותיות של מיליוני דולרים. חלק מהעבודה איתן הוא להעריך כיצד מודלים מהדור הבא מתנהגים מול איומים בעולם האמיתי - החל מהתחמקות מתוכנות אנטי-וירוס ועד פעולות התקפיות אוטונומיות - ולפתח את ההגנות הנדרשות שיבטיחו הטמעה בטוחה בקנה מידה רחב. כמו כן, בין לקוחותיה גם גופי ממשל דוגמת ממשלת אנגליה.
Irregular הוקמה על ידי דן להב (מנכ״ל) ועומר נבו (סמנכ"ל טכנולוגיות), שניהם בעלי ניסיון עשיר בתחומי הבינה המלאכותית והסייבר. דן להב עבד בעבר בחברת בלאב פיקסיזס סטארט-אפ שנרכש על-ידי גוגל. בהמשך, שימש כחוקר בינה מלאכותית ב-IBM, שם במסגרת עבודתו הוענק לו פרס ההישג הטכני המצטיין. עומר נבו הוא יזם סדרתי ששימש כמנהל פיתוח ב-Google Research, שם הוביל את המאמץ לפיתוח מודלי בינה מלאכותית לזיהוי וחיזוי שריפות יער, והנהיג צוותים שפיתחו מוצרים מבוססי מחקר בקנה מידה רחב.
לדברי דן להב, מנכ"ל החברה, "יש שוק חדש שנפתח. יש אזור שמתהווה שהוא פרונטיר AI עם תפיסה פרואקטיבית להיות מוכן קדימה ולהבין את המערכות מבפנים ולבצע עבודה עם המערכות עצמן. אנחנו ממוקדים בלהבין את המערכות ואיזה נזק מסוגלים להציע.
עם האצת האימוץ של טכנולוגיות AI, גם הסיכונים והאתגרים מתגברים ומודלי ה-AI מתעצמים בקצב מסחרר. ככל שהמודלים הללו נטמעים עמוק יותר בליבת קבלת ההחלטות בתחומים קריטיים, המשמעות היא שכל תקלה או פגיעות עלולה להתרחב במהירות ממשבר נקודתי לקריסה מערכתית. ללא כלים ייעודיים לבחינת עמידותם של המודלים תחת איומים ולהבנת טווח הסיכונים, ארגונים עלולים למצוא עצמם מנהלים מערכות חיוניות בעיוורון כמעט מוחלט.
Irregular מפעילה סימולציות מבוקרות שמעמידות מודלי AI מתקדמים במצבי אמת מדומים, במטרה לבחון את פוטנציאל השימוש לרעה שלהם להתקפות סייבר וכן את החוסן שלהם כאשר הם עצמם מותקפים.






























