סגור
באנר דסקטופ כלכליסט טק
דריו אמודיי ו סם אלטמן
דריו אמודיי, מנכ"ל אנתרופיק וסם אלטמן, מנכ"ל OpenAI (צילומים: Bloomberg )

חוות דעת שנייה מאלגוריתם: הבטחות ה–AI ברפואה מתממשות

OpenAI ו־Anthropic עושות את הצעד המשמעותי ביותר עד כה לתוך מערכת הבריאות: הראשונה פונה ישירות למטופלים ומבקשת להפוך את ה־AI לשכבת תיווך בין האדם למידע הרפואי שלו, והשנייה בונה תשתיות למוסדות ולארגונים. יחד הן מציבות את הבינה המלאכותית בלב הרפואה ככוח שמשנה תהליכים קליניים, יחסי סמכות - ומעלות שאלות קריטיות של פרטיות, רגולציה והכשרת רופאים בעידן האלגוריתמי 

בתוך פרק זמן קצר הכריזו שתיים מחברות הבינה המלאכותית הבולטות בעולם על מהלכים משמעותיים בתחום הבריאות, שמסמנים את תחילתו של עידן חדש. OpenAI הציגה את ChatGPT Health, סביבה ייעודית למטופלים בתוך ChatGPT, ואילו Anthropic, מפתחת Claude, הודיעה על שיתופי פעולה רחבים עם גופים רפואיים ומדעיים. אף אחת מהן אינה טוענת, לפחות לא בשלב זה, שהיא מחליפה רופאים. אבל עצם הכניסה הפומבית והממותגת לעולם הרפואה מאותת שהבינה המלאכותית כבר אינה כלי עזר כללי, אלא מועמדת להפוך לחלק מהתשתית של מערכת הבריאות עצמה.
כדי להבין מדוע המהלך הזה נראה היום סביר יותר מאשר בעבר, אי אפשר שלא לחזור לכישלון המתוקשר של העשור הקודם: IBM Watson Health. ווטסון הוצג אז כהבטחה גדולה, מערכת שתסייע לאבחן סרטן ולקבל החלטות קליניות, אך קרס תחת ציפיות מופרזות, נתונים לא אחידים ומורכבות רפואית אדירה. ההבדל המרכזי בין אז להיום אינו בחזון, אלא בטכנולוגיה. ווטסון התקשה להתמודד עם טקסטים חופשיים, לא מובנים ועמוסי ז'רגון.
מודלי השפה של היום, לעומת זאת, מצטיינים בדיוק בזה: הם "קוראים" סיכומי ביקור מבולגנים, מפענחים מונחים רפואיים, מזהים הקשרים ומבינים מידע בתוך שניות. במובן הזה, הטכנולוגיה סוף סוף הדביקה את ההבטחה.
אלא שמעבר ליכולת הטכנולוגית, הקרב האמיתי מתנהל על מודל הפעולה. כאן מתחדד ההבדל בין שתי החברות. OpenAI בוחרת בגישה צרכנית מובהקת: מודל B2C (עסק ללקוח) שמכוון ישירות למטופל. ChatGPT Health נועד לשמש שכבת תיווך חדשה בין האדם למידע הרפואי שלו, כלי שמסייע להבין תוצאות בדיקות, לפענח מונחים רפואיים ולהגיע לפגישה עם רופא מוכן יותר. במובן הזה, OpenAI מהמרת על העצמת המטופל ועל הרצון הגובר של אנשים לקחת שליטה על המידע הבריאותי שלהם.
Anthropic, לעומת זאת, בוחרת במסלול שונה. אף שהיא אינה מתעלמת לחלוטין מהמטופל הפרטי, ופועלת גם בערוץ צרכני דרך שיתופי פעולה, היא פונה קודם כל לארגונים: בתי חולים, חברות תרופות, מכוני מחקר וגופים קליניים – מודל B2B (עסקים לעסקים). הכלים שלה מיועדים לניתוח ספרות מדעית, האצת מחקרים קליניים וסיוע לצוותים רפואיים בקבלת החלטות, תוך דגש חזק על בטיחות, בקרה ואמינות תאגידית. בעוד OpenAI פוגשת את החולה בסלון, Anthropic מנסה להיכנס דרך הדלת האחורית של המערכת, זו של הנהלות, רגולציה ותהליכים מוסדיים.
הפער בין הגישות הללו הפך מוחשי במיוחד בעקבות סיפור שזכה לתהודה רחבה ברשתות החברתיות. טוביאס לוטקה (Tobi Lütke), מנכ״ל ומייסד שופיפיי, סיפר כיצד קיבל את תוצאות בדיקת ה־MRI השנתית שלו על גבי דיסק און קי, רק כדי לגלות שהקבצים מגיעים עם תוכנת צפייה מיושנת ומסורבלת. במקום להמתין לפענוח הרשמי או לוותר על הניסיון להבין את החומר, הוא הזין את מבנה הקבצים לקלוד וביקש ממנו לכתוב קוד. בתוך דקות, ה־AI יצרה עבורו תוכנת צפייה מודרנית, מבוססת דפדפן, שאיפשרה לו לנווט בין שכבות הצילום, להתרשם מהמבנה האנטומי ולהבין את המידע הגולמי, לא לצורך אבחון רפואי, אלא כדי לפענח את הנתונים שהיו עד אז כלואים במערכת סגורה.
הסיפור הזה ממחיש היטב את מה שמכונה מודל הקנטאור – שיתוף פעולה בין אדם למכונה. ה־AI לא מחליפה את הרדיולוג ואינה קובעת אבחנה, אבל היא מסירה חסם טכני משמעותי ומעניקה לאדם גישה ישירה למידע הרפואי שלו. הכוח אינו באבחון, אלא בתיווך: הפיכת מידע מורכב, סגור ובלתי נגיש לשקוף, קריא ומובן. זהו שינוי עמוק ביחסי הכוח בין המטופל למערכת.
השיח הזה מקבל גם ביטויים קיצוניים יותר. כך, למשל, אלון מאסק אמר באחרונה כי בעידן שבו מערכות בינה מלאכותית צפויות לעלות בביצועיהן על רופאים אנושיים, אין טעם להמשיך וללכת למסלולי הכשרה מסורתיים כמו לימודי רפואה. לדבריו, AI עתידית תוכל להעניק טיפול רפואי ברמה גבוהה יותר מזו שמקבלים כיום גם המטופלים החזקים והמקושרים ביותר.
גם אם ההצהרה הזו רחוקה מהמציאות הקלינית הנוכחית, שבה AI נתפסת ככלי עזר בלבד, היא ממחישה עד כמה הדיון סביב בינה מלאכותית ברפואה כבר אינו עוסק רק בשיפור תהליכים, אלא בשאלות עמוקות יותר של סמכות, מומחיות והכשרת רופאים בעתיד.
מעבר לחשש הקלאסי מטעויות או הזיות של מודלים, אחת הסוגיות הרגישות והבוערות ביותר בכניסת הבינה המלאכותית לעולם הרפואה היא שאלת הפרטיות והשימוש בנתונים. בניגוד לתוכנות מסורתיות, שבהן הקבצים נשארים בשליטת המשתמש או הארגון, מודלי שפה נבנים כך שהם לומדים מדוגמאות כדי להשתפר. במוצרים צרכניים רבים, ברירת המחדל היא ששיחות עשויות להישמר ולהיות מנוצלות, בצורה כזו או אחרת, לשיפור המערכת, גם אם בכפוף למנגנוני אנונימיזציה והגבלות שימוש.
הבעיה אינה זיכרון של מקרה רפואי ספציפי, אלא האפשרות שדפוסים ייחודיים, נדירים או רגישים ייטמעו במודל כחלק מהידע הכללי שלו. כאשר מדובר במידע רפואי ‑ שילוב של תסמינים, גיל, רקע והיסטוריית טיפול – גם הכללה סטטיסטית עלולה להוות פגיעה בפרטיות. החשש הוא לא שה־AI תזהה מטופל בשמו, אלא שמידע אינטימי במיוחד יהפוך בהדרגה לחלק ממאגר הידע של מערכת שמשרתת מיליוני משתמשים.
כאן נכנס לתמונה המושג Zero Data Retention ‑ ZDR, מדיניות של אי־שמירת נתונים. בפועל, מדובר בקצה המחמיר ביותר של סקאלה רחבה של פתרונות פרטיות: ארכיטקטורות שבהן המידע שהוזן למערכת קיים רק למשך זמן העיבוד, אינו נשמר בלוגים ארוכי טווח, ואינו משמש לאימון עתידי של המודל. במצב כזה, ה־AI מתפקדת עם "זיכרון רגעי" בלבד.
החוק אינו מחייב את חברות ה־AI לספק ZDR מלא למשתמשים פרטיים, ובפועל גם בעולם הארגוני לא תמיד מדובר באי־שמירה מוחלטת של כל עקבה טכנית. עם זאת, בתי חולים, קופות חולים וחברות ביטוח, הכפופים לרגולציות מחמירות כמו HIPAA בארצות הברית או תקנות הגנת הפרטיות בישראל, דורשים התחייבויות חוזיות מחמירות: בידוד סביבת העבודה, הצפנה, מגבלות גישה, ובעיקר התחייבות חד־משמעית שהמידע הרפואי לא ישמש לאימון מודלים כלליים.
לכן, המשוואה ברורה: מי שמבקשת למכור AI למערכת הבריאות הממוסדת חייבת להציע מסגרת פרטיות הדוקה, שלעתים כוללת ZDR מלא, ולעתים פתרונות מקבילים שמספקים הגנה משפטית ותפעולית דומה. ללא התחייבויות כאלה, הטכנולוגיה תישאר בעיקר בידי משתמשים פרטיים שמוכנים לקחת סיכון מחושב, ולא תהפוך לחלק אינטגרלי מהשגרה הקלינית.