מעניין
אל תבנו על הצ'אט: כך הבינה המלאכותית עלולה לסכן את בריאותכם
השימוש בבינה מלאכותית לקבלת ייעוץ רפואי צובר תאוצה, אך מחקרים חדשים חושפים נתונים מדאיגים על אבחנות שגויות וסיכונים
- יצחק איתן
- פורסם ו' אייר התשפ"ו

אנשים רבים מחפשים פתרון מהיר לבעיות בריאות. הם נוטים להיעזר בבינה מלאכותית, כדוגמת צ'אט gpt או ג'מיני, אך לא בטוח שזה הדבר הנכון. מחקרים שנערכו בשנה האחרונה מוכיחים כי הסתמכות על הכלים הללו עלולה להיות מסוכנת.
בבדיקה שביצע ניקולס טילר מהמכון הרפואי לונדקוויסט, נבחנו חמישה מודלים של בינה מלאכותית מול מאות שאלות רפואיות. התוצאות הראו הצלחה במחצית מהמקרים בלבד. חמישית מהתשובות השגויות הוגדרו כבעלות פוטנציאל לנזק פיזי.
טילר ציין כי "הצ'אטים לא נבנו ככלי רפואי, והם ממוקדים ביצירת תגובות רהוטות, מבלי לבדוק את המידע או להפעיל אחריות מקצועית".
מחקר נוסף, שנערך במרכז הרפואי מאס ג'נרל בריגהם, העלה כי ב-80% מהמקרים קבעו המודלים אבחנה מבלי לבקש פרטים נוספים, בניגוד לרופא אנושי הבוחן חלופות. כדי להמחיש את הבעיה, חוקרים הפיצו ברשת מחלה דמיונית, והבינה המלאכותית החלה לאבחן מטופלים כסובלים ממנה - מה שמוכיח שהיא מזהה תבניות טקסט ולא מידע רפואי אמין.
הנתונים הסטטיסטיים מצביעים על כך, שמיליוני בני אדם נמנעו מביקור אצל רופא בעקבות תשובות שקיבלו מהמחשב. חברות הטכנולוגיה פועלות כיום לשיפור המערכות בעזרת רופאים. ההמלצה היא להשתמש בכלים אלו רק להבנת מושגים או לסיכום נתונים, ולא לצורך אבחון.
המומחים מדגישים כי אין תחליף לבדיקה מקצועית של רופא, וכי דחיית טיפול עקב עצה של בינה מלאכותית עלולה להיות טעות.




