מעניין
שימוש ב-AI ברפואה? האלגוריתם טעה ביותר מ-20% מהמקרים
שילוב בינה מלאכותית במערכת הבריאות מעורר שאלות על סיכונים וחשיבות הפיקוח האנושי. בדיקה הוכיחה: אפילו האלגוריתמים המדויקים ביותר טעו, ולא מצליחים לפתור בעיות
- יצחק איתן
- פורסם כ"ה כסלו התשפ"ו
(צילום: shutterstock)במהלך העשור האחרון, ההצלחה של מערכות AI עוררה התלהבות רבה, אך לצד זאת גם שגיאות חוזרות ונשנות. עוזר דיגיטלי יכול לפספס מילים, הצ'אט עלול "להמציא" עובדות, ואף כלי ניווט מבוסס AI עלול להוליך נהגים למקומות לא רלוונטיים, מבלי לזהות את הטעות. אנשים סולחים על כך כיוון שהטכנולוגיה מייעלת משימות, אך כשמדובר במתן תרופות, המחיר של טעות עלול להיות חיים. חוק שהוצג בקונגרס האמריקאי בתחילת 2025 הציע לאפשר למערכות AI לרשום תרופות באופן אוטונומי, והדיון הציבורי והמחקרי סביבו מעלה שאלות רבות.
פרופ' קרלוס גרשנסון, החוקר את מערכות מורכבות באוניברסיטת בינגהמטון, מציין כי שגיאות עשויות להיות בלתי נמנעות באלגוריתמים של AI. "אם מכונה היא חסרת שגיאות, היא לא יכולה גם להיות אינטליגנטית", אמר לאתר theconversation. מחקר שפרסם ביולי 2025 (The Conversation, 2025) הוכיח כי "ניתוח מושלם" של נתונים מסוימים אינו תמיד אפשרי.
מבדיקה על נתוני סטודנטים נמצא כי אפילו האלגוריתמים המדויקים ביותר טעו בכ-20% מהמקרים, כיוון שחלק מהסטודנטים היו זהים במאפיינים אך התנהגו אחרת בפועל.
בעיית התחזיות נובעת מהמורכבות - המרכיבים במערכת קשורים זה לזה בצורה אינטראקטיבית, והאינטראקציות הללו קובעות את התוצאה. בדיוק אותו עיקרון חל גם על מתן תרופות: סימפטומים דומים יכולים להופיע במחלה נשימתית או במערכת העיכול, וחולים עם אותה מחלה עלולים לקבל תוצאות שונות לחלוטין.
גרשנסון מדגיש כי שילוב של אדם ומכונה - מה שמכונה "אינטליגנציה היברידית" - לרוב יעיל יותר מכל אחד בנפרד. רופא יכול להשתמש ב-AI כדי להציע אפשרויות טיפול שונות בהתחשב בהיסטוריה הרפואית, בפרמטרים פיזיולוגיים ובמאפיינים גנטיים. עם זאת, שימוש באינטליגנציה מלאכותית ללא פיקוח אנושי עלול להיות מסוכן, והטעויות הטמונות בטכנולוגיה עצמה מצביעות על הצורך בפיקוח תמידי בעת שמדובר בבריאות בני אדם.
מצטרפים לעולם הילדים, ומקבלים עד הבית ארוחת חנוכה יוקרתית לערב משפחתי מושלם! לחצו כאן >>




