סגור
גג עמוד techtalk דסק

"דוקטור, אבל המודל אומר שצריך"

בשבועות האחרונים צצה תופעה מדאיגה: סוכני שפה של רשת חברתית החלו "לדבר" זה עם זה; להגיב, לחזק זה את זה ולייצר שיחות, שלכאורה נראות חיות. באחת האינטראקציות, מישהו כתב, שהוא סובל מעייפות ומחוסר ריכוז. תוך דקות, בוט אחד שיער שמדובר בבעיה נוירולוגית התחלתית, שני סבר שמדובר בהפרעה מטבולית נדירה, שלישי המליץ על בדיקות דם מקיפות ומעקב צמוד. אף אחד מהבוטים לא שאל: כמה הוא ישן? או אם הוא פשוט מותש משבוע עמוס?
השיחה נשמעה רצינית, מנומקת ואחראית, וכאן צפה בעיה אמיתית.
אם תשאלו את העמיתים שלי, הדינמיקה הזו משיח הבוטים, כבר נמצאת אצלנו במרפאות.
לאחרונה הגיע אליי מטופל בן 52, לבירור תחושת נימול מוזרה ביד שמאל, שהופיעה ונעלמה. בדקתי אותו, והבדיקה הנוירולוגית הייתה תקינה. אלא שאז הוא הוציא את הטלפון החכם, ואמר: "שאלתי את ה-AI והוא כותב, שצריך לשלול נוירופתיה, גידול, שבץ קטן, טרשת נפוצה, ואפילו מחלה ניוון נדירה. הוא גם ממליץ על MRI של המוח, בדיקות דם מיוחדות, ואפילו דיקור מותני. אז... אפשר שנתקדם?"
1 צפייה בגלריה
ד"ר שחר שלי בי"ח רמב"ם
ד"ר שחר שלי בי"ח רמב"ם
ד"ר שחר שלי
(צילום: רמב"ם)
המטופל מולי נראה אדם רציני ואחראי, ואני נקלעתי למצב מביך. מצד אחד, כל אבחנה שה-AI הזכיר, קיימת. כל בדיקה שהומלצה, מקובלת, ולעיתים הכרחית. אלא שהבעיה אינה בפירוט ההצעות. המודל אכן לא טעה, הבעיה היא ברצף כולו, שמייצג רפואה מתגוננת וחסרת שיקול דעת. היה עליי להסביר למטופל למה רצף הבדיקות - אינו חיוני.
כאן מתגלה משהו עמוק ומשמעותי על הקשר שבין הבינה המלאכותית ועולם הרפואה: המטופל שלי פנה לברר תשובה אצל מודל AI , שלא מכיר את אותו. לא מפעיל שיקול דעת רפואי ואנושי אמיתי, ואינו רואה הקשר, מהלך והסתברות. מודל ה-AI מייצג עולם של ספרות רפואית, שמדגישה סיכונים והחמצות ברפואת המוח ובתחומי רפואה אחרים, מושפעת מתרבות משפטית, שמענישה יותר על פספוסים ורשלנות בחסר בדיקות, מאשר על תופעת יתר בדיקות. המודל סיפק תשובות מוחלטות, ללא שיקול דעת. המפגש ביני כרפוא למטופל שלי יצר היפוך תפקידים: לא הצטרכתי להסביר למה נדרשת בדיקה כלשהי, אלא להתנצל על שלילת הצורך בעודף הבדיקות.
לא זו בלבד, אלא שחלק מהמטופלים שלנו לא מסתפקים בפנייה למודל AI אחד, אלא פונים לכמה וכמה. ריבוי המודלים, שפועלים במקביל, מביא לעיתים לכך, שכל מודל מזהה סיכון מזווית אחרת. אלא שבעולמות הרפואה, יותר סוכני AI - לא בהכרח מייצרים החלטות טובות יותר. לעיתים הם רק מייצרים עודף רעש. עוד הסתייגויות, עוד “ומה אם”?, עוד הצעות לפעולות, כי זה בטוח יותר מבחינה אלגוריתמית, והעודפות הזו יקרה ומיותרת.
במחקרים שלנו בפקולטה לרפואה בטכניון, אנחנו רואים שמודלי AI מצטיינים בזיהוי אפשרויות, אך מתקשים בסינון. מתחילה להצטייר תמונה ברורה של זליגה לאינפלציה דפנסיבית: יותר בדיקות הדמיה, יותר בירורים נוירולוגיים, לא בהכרח רפואה טובה יותר.
אחדד. בדיקה נוירולוגית היא לא פעולה נייטרלית. היא עלולה להניב ממצאים מקריים, שמפעילים שרשרת של בדיקות נוספות, לייצר חרדה ממושכת, ולעיתים להוביל לטיפולים מיותרים. הרפואה מתייקרת לא בגלל חמדנות, אלא בגלל זהירות אלגוריתמית.
ועם זאת, זה לא טור נגד טכנולוגיה. האינטליגנציה המלאכותית היא שינוי מבורך, שיכול לחזק מטופלים, לשפר אבחון, ולהפוך את הנוירולוגיה לנגישה וחכמה יותר. אבל כמו כל שינוי גדול, הוא דורש כיוון.
יש לנו רופא חדש בשכונה – AI עם ידע אינסופי, כשיר וחרוץ. אבל הוא גם כזה שרואה הכל, חושד בהכל, ומעדיף לשלוח עוד ל-MRI מאשר לשאת באחריות של אי-פעולה. האתגר כעת אינו לעצור אותו, אלא ללמד אותו להירגע. לכוון אותו, להפוך אותו מרופא מפוחד - לרופא שקול.
חזרתי למטופל, ואחרי שהסברתי לו למה אין הצדקה לכלל הבדיקות שהוצעו, בחרנו יחד בירור ממוקד ומצומצם. הוא הסכים, אבל גם לא הסתיר את אכזבתו, כי מודל ה- AI נשמע בטוח יותר ממני.
בתקופה הנוכחית, האתגר החברתי הגדול שלנו כרופאים הוא: לשמור על רפואה, שמבוססת על שיקול-דעת אנושי, על הקשר הגיוני ועל איפוק. אם ניכשל בכך, נגלה כי שככל שהמודלים משתפרים, כך תתייקר עלות הרפואה ותסתבך, ולא בגלל שהיא טובה יותר, אלא בגלל שהיא מגננתית יותר.
ד"ר שחר שלי הוא ראש המעבדה לאינטליגנציה מלאכותית בפקולטה לרפואה בטכניון, מנהל המחלקה לנוירולוגיה ברמב"ם, ויו"ר החברה למחלות עצב – שריר באיגוד הנוירולוגי בישראל