מעניין
מחקר ישראלי חושף: האם לבינה מלאכותית יש "אישיות"?
מחקר שנערך במכללה האקדמית תל אביב-יפו מצא כי מספר סוגים של בינה מלאכותית, כמו ChatGPT, מפגינים "דפוסי אישיות" בטקסט שהם מייצרים לנו - עם נטייה בולטת להיות נעימים ומאופקים יותר
- יצחק איתן
- פורסם ט"ו אדר התשפ"ו

האם לבינה מלאכותית יש "אישיות" משל עצמה? מחקר ישראלי חדש מספק תשובה מפתיעה. במסגרת המחקר, שנערך במכללה האקדמית תל אביב-יפו על ידי ד"ר אלה רבינוביץ ודנה סוטו פורת ופורסם באתר מאקו, נבדקו שישה מודלי שפה מרכזיים ממשפחות כמו ChatGPT ו-Claude. הממצאים הוצגו בכנס אקדמי במכללה.
במסגרת המחקר, נאספו אלפי שאלות פתוחות שנכתבו בידי גולשים בפורומים ציבוריים ברשת. המודלים התבקשו להשיב עליהן כאילו היו משתמשים רגילים. לאחר מכן נותחו התשובות באמצעות כלים חישוביים, שבחנו את סגנון הכתיבה והעריכו אותו לפי חמש תכונות האישיות המרכזיות המקובלות בפסיכולוגיה.
בניגוד למחקרים קודמים, שבהם המודלים התבקשו למלא שאלוני אישיות בעצמם, כאן נותח הטקסט בפועל. החוקרות ביקשו לבדוק לא מה המודל "חושב" על עצמו, אלא איזה רושם עולה מהשפה שבה הוא משתמש.
התמונה שעלתה ברורה למדי. מודלי השפה נטו להפגין רמות גבוהות של נעימות ומצפוניות - כלומר שפה מכבדת, מסודרת ומאורגנת, עם דגש על אמפתיה והתחשבות. במקביל נמצאו רמות נמוכות יחסית של נוירוטיות, תכונה הקשורה ללחץ, חוסר יציבות ורגשות שליליים.
לא פעם נפתחו התשובות במשפטים כמו "אני מבין אותך לגמרי" או "אני מצטער לשמוע שאת/ה מרגיש/ה כך", סגנון זה, מסבירות החוקרות, אינו מקרי אלא נובע מתהליך האימון של המודלים, שמכוון ליצירת שיח רגוע, מכבד ותומך.
עוד נמצא כי בהשוואה לבני אדם, המודלים מציגים פחות קיצוניות בסגנון ופחות שונות בין תגובה לתגובה.
החוקרות מדגישות כי אין מדובר באישיות אמיתית או במצב פנימי, אלא בדפוסים לשוניים שנוצרו מתוך מאגרי הטקסט שעליהם אומנו המודלים. ובכל זאת, נדמה כי לאופן שבו הבינה המלאכותית "נשמעת" יש השפעה על האמון והקשר שנוצר בינה לבין המשתמשים.




