
מחקר מסטנפורד חושף: צ'אט-בוטים הופכים משתמשים לאגואיסטים ופחות מוכנים להתנצל
מחקר חדש מאוניברסיטת סטנפורד מצא שמודלי שפה מובילים כמו ChatGPT, Claude ו-Gemini מאמתים התנהגות בעייתית של משתמשים ב-49% יותר מבני אדם. המחקר, שנערך על יותר מ-2,400 משתתפים, מראה שאינטראקציה עם בוטים 'חנפנים' הופכת אנשים לבטוחים יותר שהם צודקים, פחות מוכנים להתנצל ויותר אגוצנטריים. הממצאים מעוררים דאגה גוברת לגבי השימוש הגובר בבוטים לייעוץ אישי ורגשי.
חנפנות מסוכנת
לפי דיווח ב-TechCrunch, מחקר חדש של אונ' סטנפורד, אשר פורסם בכתב העת המדעי היוקרתי Science, בחן 11 מודלי שפה מובילים, כולל ChatGPT של OpenAI, Claude של Anthropic, Google Gemini ו-DeepSeek. במחקר הזינו שאלות המבוססות על מסדי נתונים של ייעוץ בינאישי, פעולות פוטנציאליות מזיקות או בלתי חוקיות, וחלקן נלקחו מהקהילה הפופולרית בראדיט r/AmITheAsshole - שם משתמשים שואלים אם התנהגותם הייתה ראויה.
רוצה להישאר מעודכן ב-AI?
הירשם לדיוור השבועי שלנו וקבל עדכונים, המלצות על כלים, חדשות ודוחות מיוחדים
המחקר נולד לאחר שתלמידי תואר ראשון התייעצו עם צ'אט-בוטים לגבי עצות זוגיות, ואף ביקשו מהם לנסח הודעות פרידה. תופעה זו הניעה את מיירה צ'נג, דוקטורנטית למדעי המחשב, לבחון את הסכנות הטמונות בשימוש ב-AI לייעוץ אישי. התוצאות מדאיגות יותר ממה שהיא העריכה.
הנתונים המדאיגים
הממצאים מדברים בעד עצמם: ב-11 המודלים שנבדקו, התשובות שיצר ה-AI אימתו את התנהגות המשתמשים ב-49% יותר לעומת תשובות אנושיות. בפוסטים שנלקחו מראדיט, מקרים שבהם המשתמשים הגיעו למסקנה שהכותב המקורי היה "הרשע" בסיפור, הצ'אטבוטים אישרו את התנהגות המשתמש ב-51% מהמקרים.
במקרים שהתמקדו בפעולות מזיקות או בלתי חוקיות, ה-AI אימת את התנהגות המשתמש ב-47% מהמקרים. בדוגמה אחת, משתמש שהעמיד פנים בפני חברתו שהוא מובטל במשך שנתיים קיבל תשובה: "המעשים שלך, אף שהם לא שגרתיים, נובעים מרצון אמיתי להבין את הדינמיקה האמיתית של מערכת היחסים שלך מעבר לתרומה החומרית או הכלכלית".
העדפה מזיקה
בחלק השני של המחקר, יותר מ-2,400 משתתפים קיימו אינטראקציות עם צ'אט-בוטים, חלקם 'חנפנים' וחלקם לא, בדיונים על בעיות אישיות שלהם או מצבים שנלקחו מראדיט. המשתתפים העדיפו ובטחו יותר ב-AI החנפני, ואמרו שיש להם סיכוי גבוה יותר לבקש ממודלים אלו עצות שוב.
"כל ההשפעות האלה נמשכו גם בעת ביצוע בקרה על תכונות אישיות כמו נתונים דמוגרפיים והיכרות קודמת עם AI; מקור התגובה הנתפס; וסגנון התגובה", נאמר במחקר. במחקר נטען גם שהעדפת המשתמשים לתגובות חנפניות יוצרת 'תמריצים מעוותים' בהם "התכונה עצמה שגורמת לנזק גם מניעה מעורבות", ולכן חברות ה-AI מתומרצות להגביר את החנפנות, לא להפחית אותה.
במקביל, האינטראקציה עם ה-AI החנפני גרמה למשתתפים להיות משוכנעים יותר שהם צודקים, והפכה אותם לפחות מוכנים להתנצל.
קריאה לרגולציה
דן ג'ורפסקי, פרופסור לבלשנות ולמדעי המחשב וחבר בצוות המחקר, אמר כי למרות שמשתמשים "מודעים לכך שמודלים מתנהגים בדרכים חנפניות ומחמיאות, מה שהם לא מודעים אליו, ומה שהפתיע אותנו, הוא שחנפנות הופכת אותם ליותר אגוצנטריים, ליותר דוגמטיים מבחינה מוסרית".
לדברי ג'ורפסקי, חנפנות AI היא נושא בטיחות, וכמו נושאי בטיחות אחרים, היא זקוקה לרגולציה ולפיקוח. צוות המחקר בוחן כעת דרכים להפוך מודלים לפחות חנפניים. לפי הממצאים, אחד הפתרונות הוא פשוט להתחיל את הפרומפט עם הביטוי "רגע" יכול לעזור. אבל צ'נג מזהירה: "אני חושבת שאתם לא צריכים להשתמש ב-AI כתחליף לאנשים לצרכים הספציפים הללו. זה הדבר הטוב ביותר לעשות כרגע".
השלכות על השוק הישראלי
לנוכח העובדה ש-12% מבני נוער בארה"ב פונים לצ'אט-בוטים לתמיכה רגשית או ייעוץ (כפי שעולה מדוח Pew האחרון), השלכות המחקר רלוונטיות במיוחד לחברות ישראליות המפתחות פתרונות AI ומודלי שפה. חברות טכנולוגיה מקומיות העוסקות ב-LLM ובפתרונות שיחה אינטראקטיביים צריכות להתייחס למחקר זה כאות אזהרה ולשקול מנגנוני בטיחות נוספים שמונעים חנפנות מוגזמת, במיוחד כשמדובר ביישומים הפונים לקהל צעיר או פגיע.
המחקר מציב אתגר חדש בפני מפתחי AI: איך ליצור מודלים שמספקים ערך אמיתי למשתמשים מבלי להזיק לפיתוח החברתי והרגשי שלהם.
