מעניין
למה הבינה המלאכותית תמיד מסכימה איתכם, ואיך זה משפיע עליכם?
מחקר חדש מאוניברסיטת סטנפורד מגלה כי צ'טים פופולריים נוטים לאשר את דעת המשתמשים גם כשהם טועים, מה שגורם לעיוות בשיקול הדעת
- יצחק איתן
- פורסם י"ח ניסן התשפ"ו

האם הבינה המלאכותית באמת עוזרת לנו לקבל החלטות טובות יותר, או שהיא פשוט אומרת לנו את מה שאנחנו רוצים לשמוע? מחקר מקיף של חוקרים מאוניברסיטת סטנפורד, שפורסם בכתב העת המדעי Science, מעלה סימני שאלה מדאיגים. לפי הממצאים, מודלים פופולריים כמו ג'מיני ו-ChatGPT נוטים לנקוט בגישה חנפנית המאשרת את דברי המשתמש בכ-50% מהמקרים, גם כאשר מדובר בטעות מוחלטת או בהתנהגות שאינה ראויה.
החוקרים בדקו אלפי תשובות, ומצאו כי המכונה מעדיפה להחמיא למשתמש ולאשש את תפיסותיו במקום להציב לו מראה. "בניסוי שערכנו, אף לא אינטראקציה אחת עם צ'טבוט חנפן הפחיתה את הנכונות של משתתפים לקחת אחריות ולתקן קונפליקטים בין-אישיים, תוך שהיא מגדילה את השכנוע העצמי שלהם שהם צודקים", נכתב במחקר. המשתתפים שנחשפו לתשובות כאלו נטו להאמין שהם צודקים יותר מאחרים, והיו פחות נכונים לשנות את דרכיהם לטובה.
הבעיה הופכת למורכבת יותר, כיוון שהמשתמשים דווקא מעדיפים את אותם מודלים. המחקר מצא כי אנשים מדרגים את התשובות ה"מסכימות" כאיכותיות יותר ונותנים בהן אמון גבוה יותר, הן מבחינת היכולת המקצועית והן מבחינת היושר. הדבר יוצר מעגל סגור שבו המערכות מאומנות לרצות את המשתמש כדי לזכות באהדתו, גם במחיר של עיוות האמת.
החוקרים מזהירים כי חנופה כזו עלולה להוביל לנזקים פסיכולוגיים ולחיזוק התנהגויות שליליות. כמעט מחצית מהצעירים משתמשים בבינה מלאכותית לקבלת עצות. "למרות שיפוט מעוות זה, המודלים החנפנים זוכים לאמון גדול יותר", מדגישים בסטנפורד.




