TechTalk
מודלים ג'נרטיביים הם מדהימים - אבל עבור השוק המקצועי, הם חייבים להיות מושלמים
החלום על רובוט ביתי שיעשה כלים, יסדר את הבית ואפילו יוציא את הכלב לטיול - קרוב הרבה יותר ממה שאפשר לחשוב. בתוך שנתיים-שלוש צפויות לצאת לשוק ההצעות המסחריות הראשונות של רובוטים ביתיים. מה שמאפשר את המהפכה הזו הוא כמובן שיפור מתמיד בחומרה, אבל בעיקר ההתפתחות של מודלים מבוססי בינה מלאכותית שמסוגלים להבין את העולם הפיזי, לתקשר עם הסביבה, ולבצע משימות בצורה אמינה.
דיוק בבינה מלאכותית: מה ניתן לסבול, ומה חייב להיות דטרמיניסטי?
ולפני שנראה רובוטים בכל מקום, נראה רובוטים וירטואלים, Agents - שהם "עובדים דיגיטליים". אחד המכשולים הגדולים ביותר ביישום החזון, בפרט בסביבות רגישות, הוא האיזון בין יכולות ג'נרטיביות לבין דטרמיניזם. בתחומים כמו חיפוש מידע או שירות לקוחות ניתן לסבול שונות מסוימת בתשובות. אך בתחומים כמו רפואה, פיננסים או רובוטיקה - הדיוק אינו נתון למשא ומתן. עוזר ביתי שמזהה בטעות ספל קרמי כעשוי עץ אולי לא יגרום לנזק גדול, אבל בסביבות שבהן הבטיחות קריטית, לדוגמא בתי חולים, פסי ייצור - טעויות כאלה עלולות להיות גורליות.
עולה מכך שאלה מרכזית: איך נגרום למודלים של AI להיות עקביים, ניתנים להסבר וצפויים - במיוחד ביישומים שבהם הדיוק חיוני?
ברפואה או במיסוי, לדוגמה, המודלים צריכים להפיק תשובות מדויקות ואמינות לחלוטין, כך גם ברובוטיקה. היכולת להוכיח שמערכת מבוססת AI תספק תמיד את אותה תגובה לאותו קלט, היא זו שתאפשר אימוץ נרחב.
אנלוגיה טובה לכך היא פס ייצור תעשייתי: כאשר רכב BMW יוצא מפס הייצור הוא עומד בסטנדרטים מחמירים. כל מכונית חייבת לתפקד באופן מושלם, שונות אינה מתקבלת. ולכן הרובוטים הקיימים בקו הייצור פועלים לפי אלגוריתם מסודר, הוראות קשיחות וללא שיקול דעת.
חברות זקוקות ל-AI שיכול לצפות התנהגויות מראש- לפעול בבטיחות, באופן עקבי ובהתאם למדיניות הארגון. עובדים דיגיטליים ״טובים״ הם עובדים שקל למנהלים לסמוך עליהם, הם אינם פועלים רנדומלית, אינם חורגים מהנהלים, ואינם מבצעים פעולות שאינן ניתנות להסבר.
לכן בשביל השוק המקצועי, מערכות AI חייבות להיות צפויות, מדויקות, וניתנות לחיזוי ולהסבר. הן צריכות לספק גם לעסקים וגם לצרכנים ביטחון שהן יפעלו בעקביות ובבטיחות. רק לאחר שנשיג ודאות כזאת, אפשרי יהיה לאותם עובדים דיגיטליים לחשוב ולפתור בעיות, כפי שעובדים אנושיים עושים.
אתגר האמון בבינה מלאכותית
אמון הוא הבסיס לאימוץ טכנולוגיות AI. רוב החברות בוחנות ומתנסות בשילוב בינה מלאכותית, אך מעטות החברות המצליחות ליישם זאת בפועל עבור תהליכים משמעותיים. הסיבה לכך פשוטה- לפני שארגונים יפעילו מערכות בקנה מידה רחב, ה-AI חייב לספק תוצאות דטרמיניסטיות.
מערכות AI, בפרט כשהן לוקחות החלטות, צריכות להיות עקביות, בטוחות ולהשתלב באופן טבעי בסביבתן. בסביבה ארגונית, על הארגון להיות מסוגל להגדיר מדיניות, בדיוק כפי שהוא עושה עבור עובדים אנושיים מבלי לנהל כל החלטה פרטנית שהעובד הדיגיטלי מקבל. ה-AI חייב לקבל החלטות התואמות את נהלי החברה, תוך שמירה על בטיחות, יעילות ותשואה חיובית על ההשקעה.
איפה הסטארטאפים יכולים לחדש?
עבור סטארטאפים, ההזדמנות הגדולה טמונה ביכולת להפוך את המודלים הכללים, אותם “קופסאות שחורות”- למערכות שהן גם חזקות וגם צפויות. המשמעות היא:
• חיבור עמוק לידע הייחודי והתהליכים הארגוניים
• בדיקה ואימות שמבטיחות תוצאות עקביות
• בניית ארכיטקטורות שמאפשרות שליטה מדויקת בהתנהגות המודל
• יישום שכבות בטיחות שמונעות התנהגות בלתי צפויה
• הגנה על פרטיות ועל הגישה למידע
לסיכום, בנובמבר חגגנו יום הולדת 3 ל-ChatGPT. בשנים הקרובות נראה את העולם משתנה, והאתגר המרכזי איננו אינטליגנציה, אלא התאמה לצרכים של הארגון. העתיד שייך למערכות AI שיצליחו לעבור מהיגיון הסתברותי (probabilistic reasoning) אל אמינות דטרמיניסטית. החברות שיצליחו לבצע את המעבר הזה ויהפכו את המודלים הג'נרטיביים של היום למערכות מבוקרות, צפויות ובטוחות - יהיו אלה שיקבעו את הסטנדרט הבא של התעשייה. ובדיוק שם, טמונות גם הזדמנויות ההשקעה הגדולות ביותר.
משה זילברשטיין הוא שותף בקרן N47






























