מעניין
ביקש עצה רפואית מהצ'אט GPT - ואושפז עם מחלה נדירה מהמאה ה-19
גבר חלה במחלה מהמאה ה-19 בעקבות עצה מ-ChatGPT: אזהרה חשובה למשתמשי בינה מלאכותית, שמתיימרים לחפש תשובות לכל השאלות מבלי לערב שיקול דעת
- שירה דאבוש (כהן)
- פורסם כ"ג אב התשפ"ה

ארה"ב: גבר בן 60 אושפז לאחרונה בעקבות מחלה נדירה שכמעט ואינה מוכרת לרפואה המודרנית, וכל זה בעקבות המלצה שקיבל מהבינה המלאכותית ChatGPT של OpenAI.
הגבר, שהיה בריא לגמרי וללא עבר רפואי או נפשי קודם, ניסה להפחית את צריכת המלח שלו, ובמקום להתייעץ עם רופא בחר לפנות ל-ChatGPT. כששאל על תחליף למלח שולחן (נתרן כלורי), קיבל מהבוט תשובה שגויה ומסוכנת: להשתמש בנתרן ברומיד - חומר תעשייתי שאינו מיועד למאכל אדם.
במשך שלושה חודשים הוא שילב את החומר הזה בתזונתו, ועם הזמן החל לפתח סימפטומים חמורים: עייפות קשה, נדודי שינה, פריחות, חוסר שיווי משקל, הזיות חמורות ותחושת רדיפה. הוא האמין ששכניו מנסים להרעיל אותו, ואושפז בכפייה לאחר שאובחן כסובל מהפרעה פסיכיאטרית חמורה.
בבדיקות גופניות ואבחון נוסף, התברר כי מדובר במקרה נדיר של הרעלת ברומיד - תופעה שהייתה מוכרת בסוף המאה ה-19, אז שימש הברומיד כתרופה להרגעה ולנדודי שינה. בשל הצטברותו האיטית בגוף ותופעות הלוואי הקשות, נאסר השימוש בו כתרופה כבר בשנות ה-70, והוא כמעט נעלם מהעולם הרפואי.
חוקרים שבדקו את המקרה שיחזרו שיחות דומות עם גרסאות 3.5 ו-4 של ChatGPT וגילו שהבוט אכן ממליץ על נתרן ברומיד, מבלי להוסיף כל אזהרה בריאותית או לבקש מידע נוסף על מטרת השימוש. הם הבהירו כי כל רופא מוסמך היה מונע את המהלך הזה לחלוטין, והזהירו מפני שימוש לא מפוקח במידע רפואי שמספקות מערכות בינה מלאכותית.
OpenAI מצידה כבר הבהירה בעבר ש-ChatGPT אינו תחליף לרופא, וכי אין להסתמך עליו לצורך ייעוץ רפואי אישי. המקרה הזה משמש תזכורת חשובה: בינה מלאכותית יכולה להועיל אך רק בשילוב שיקול דעת אנושי והכוונה מקצועית.




