חזרה לחדשות
בינה מלאכותית "ענווה" שיודעת להודות באי-ודאות בתחום הרפואה

בינה מלאכותית "ענווה" שיודעת להודות באי-ודאות בתחום הרפואה

24 במרץ 2026
מערכת זירת AI

צוות בינלאומי בהובלת MIT מציע מסגרת לפיתוח מערכות AI לאבחון רפואי שמעריכות את רמת הוודאות שלהן, מציפות מתי חסר מידע, ומעודדות שיתוף פעולה עם רופאים כדי לצמצם הטעיות שנובעות ממנגנוני ריצוי או ביטחון יתר.

According to an MIT News report, חוקרים מ-MIT ומהקונסורציום הבינלאומי MIT Critical Data מציעים דרך מעשית להפוך בינה מלאכותית רפואית לפחות "יודעת-כול" ויותר שותפה: מערכת שמסוגלת להצהיר במפורש מתי היא לא בטוחה, ולכוון את הקלינאי לאיסוף מידע נוסף במקום לדחוף המלצה נחרצת שעלולה להיות שגויה.

למה בכלל צריך את זה ברפואה?

בינה מלאכותית כבר משולבת במוקדי החלטה ברפואה, מאבחון ועד בחירת טיפול. אבל לפי החוקרים, האתגר אינו רק דיוק סטטיסטי, אלא גם האופן שבו בני-אדם מגיבים למכונה שנשמעת סמכותית. מחקרים קודמים הראו שרופאים ביחידות טיפול נמרץ נוטים להישען על המלצות אלגוריתמיות שנחוות כאמינות, גם כשהאינטואיציה הקלינית שלהם מצביעה על כיוון אחר. באותו אופן, גם מטופלים עשויים לקבל המלצות שגויות כאשר הן עטופות בביטחון.

רוצה להישאר מעודכן ב-AI?

הירשם לדיוור השבועי שלנו וקבל עדכונים, המלצות על כלים, חדשות ודוחות מיוחדים

במרכז המאמר עומדת הטענה ש-AI קליני לא צריך לתפקד כ"אורקל" שמנפק תשובות, אלא כמאמן או טייס משנה שמחזק את הסוכנות של הרופא: לעזור לחבר נקודות, לשאול שאלות נכונות ולהצביע על חוסרים בנתונים. את הגישה מוביל ד"ר Leo Anthony Celi, חוקר בכיר ב-Institute for Medical Engineering and Science ב-MIT, רופא ב-Beth Israel Deaconess Medical Center ומרצה חבר ב-Harvard Medical School. את המחקר הוביל ככותב ראשון Sebastián Andrés Cajas Ordoñez, חוקר ב-MIT Critical Data.

המסגרת: למדוד ודאות, ואז להתנהג בהתאם

המחקר, שפורסם בכתב העת BMJ Health and Care Informatics, מציג מסגרת הנדסית שמורכבת ממודולים חישוביים שניתן לשלב במערכות קיימות. אבן יסוד אחת היא דרישה מהמודל לבצע "בדיקת מודעות עצמית": להעריך את רמת הוודאות שלו ביחס למורכבות המקרה ולמידע הזמין.

במסגרת זו מוצע כלי שנקרא Epistemic Virtue Score, שפותח על ידי Janan Arslan ו-Kurt Benke מאוניברסיטת מלבורן, ומטרתו לאזן בין ביטחון המודל לבין אי-הוודאות המובנית במצבים קליניים. כאשר המערכת מזהה שהביטחון שלה גבוה מדי ביחס לראיות, היא אמורה לעצור, להתריע על הפער, ולהמליץ על הצעד הבא שיצמצם אי ודאות: בדיקות ספציפיות, היסטוריה רפואית חסרה או הפניה להתייעצות מומחה.

המשמעות היא שמערכת אבחון אינה רק פלט של תשובה, אלא ניהול מודע של סיכון: היא מסמנת מתי "רמת המידע לא מספיקה" ומתי צריך "עוד זוג עיניים" כדי להבין מטופל מורכב, כפי שמגדיר זאת Celi.

מעבר לדיוק: הכללה, הטיות והקשר חסר

החוקרים מציבים את "הענווה" גם כערך חברתי. רבים ממודלי ה-AI הרפואיים מאומנים על מאגרי נתונים אמריקאיים ציבוריים, מה שעלול לקבע הטיות ולצמצם נקודות מבט קליניות ותרבותיות אחרות. בנוסף, רשומות רפואיות ממוחשבות לא נבנו מלכתחילה לצורכי למידת מכונה, ולכן לעיתים חסר בהן הקשר חיוני להחלטות. אוכלוסיות עם נגישות מוגבלת למערכת הבריאות, למשל באזורים כפריים, עשויות להיעדר מהנתונים, וכך המודל עלול להיות פחות רלוונטי עבורן.

במסגרת סדנאות הנתונים (Datathons) של MIT Critical Data, צוותים רב תחומיים, מדעני נתונים, אנשי רפואה, מדענים חברתיים ומטופלים, מתבקשים להטיל ספק בנתונים עצמם: מי לא מיוצג, אילו גורמים לא נמדדים, והאם המודל עלול לשכפל אי-שוויון מבני.

מה השלב הבא והשלכות לשוק הבריאות

הצוות מתכנן ליישם את המסגרת על מערכות המבוססות על מאגר MIMIC, אחד ממאגרי המידע הגדולים בעולם לטיפול נמרץ שפיתח Celi עם עמיתיו, ולהכניס פתרונות כאלה לשימוש בקרב קלינאים במערכת Beth Israel Lahey Health. אם הגישה תתרחב, היא עשויה להשפיע גם על ניתוחי הדמיה כמו צילומי רנטגן ועל מערכות תמיכה להחלטה במיון.

בעידן שבו AI נכנס במהירות לרפואה, המסר של MIT הוא פרקטי: לא מספיק שהאלגוריתם יהיה "חכם"; הוא חייב לדעת מתי הוא לא יודע, ולהפוך את אי-הוודאות הזו למידע שניתן לפעול לפיו.

שאלות נפוצות