
הסוף לגלילה בלתי פוסקת? איך אנתרופולוגיה יכולה להפוך צ׳אט-בוטים למועילים לחברה
קורס חדש ב-MIT מחבר בין מדעי המחשב לאנתרופולוגיה כדי ללמד סטודנטים לתכנן צ׳אט-בוטים אנושיים ובטוחים יותר, שמקדמים מיומנויות חברתיות והימנעות ממלכודות קשב.
קורס חדש שנפתח ב-MIT מבקש לענות על שאלה שמטרידה היום גם הורים, מחוקקים וחברות טכנולוגיה: האם צ׳אט-בוטים חייבים להתחרות בבני אדם על תשומת הלב שלנו, או שאפשר לעצב אותם כך שישמשו ככוח מיטיב שמחזק מיומנויות חברתיות וביטחון עצמי, במקום להעמיק תלות והרגלי גלילה בלתי נגמרים.
קורס שמחבר בין קוד לאנשים
הקורס, 6.S061/21A.S02 "Humane User Experience Design" (Humane UXD), הוא קורס מתקדם במדעי המחשב שמוצלב עם אנתרופולוגיה, כך שסטודנטים למדעי המחשב יכולים גם לעמוד בדרישת לימודים בפקולטה למדעי הרוח, מבלי לוותר על קשר ישיר לקריירה הטכנולוגית שלהם. מאחורי המהלך עומדים שני חוקרים: פרופ׳ ארווינד סטיאנראיאן (Arvind Satyanarayan), חוקר ממשקי משתמש והדמיית נתונים אינטראקטיבית, ופרופ׳ גרהאם ג׳ונס (Graham Jones), אנתרופולוג שחוקר תקשורת ושיחה.
רוצה להישאר מעודכן ב-AI?
הירשם לדיוור השבועי שלנו וקבל עדכונים, המלצות על כלים, חדשות ודוחות מיוחדים
החידוש העיקרי אינו רק "עוד קורס על UX", אלא שימוש בכלים של אנתרופולוגיה לשונית כדי להחזיר לתהליך בניית מוצר את מה שלעיתים נשחק בעולם ה-HCI המודרני: יצירת קשר, הקשבה, הבנת ז׳אנרים של שיחה והקשר חברתי. סטיאנראיאן מדגיש כי תחום האינטראקציה אדם-מחשב אימץ בעבר שיטות מאנתרופולוגיה כמו ראיונות ותצפיות, אך לאורך השנים הן הפכו לעיתים לדילול שמייצר איסוף נתונים בלי לבנות אמון. מנגד, ג׳ונס רואה במודלים לשוניים גדולים מאגר של ז׳אנרים תקשורתיים "רדומים", שאפשר להפעילם בעיצוב נכון, כך שהמערכת לא רק תענה, אלא תבין מהו סוג האינטראקציה הנדרש.
למה זה חשוב דווקא עכשיו
דור צעיר גדל בתוך כלכלת קשב שבה פלטפורמות ויישומי שיחה מבוססי AI מתחרים על זמן, רגש והשתייכות. בשוק שבו הצלחה נמדדת לעיתים במעורבות ובזמן מסך, תכנון "הומני" הופך לא רק לשאלה מוסרית אלא גם לשאלה הנדסית: כיצד בונים צ׳אט-בוט שמכוון לתוצאה מיטיבה, מציב גבולות, ומפחית מניפולציות של פיתוי רגשי.
שלושה צ׳אט-בוטים שמדגימים גישה אחרת
בין פרוייקטי הסטודנטים, שנבנו בעזרת Google Gemini, בולט Pond: בוט שמלווה בוגרי קולג׳ במעבר לחיים עצמאיים. הסטודנטים שפיתחו את הכלי, בחרו במכוון שלא ליצור בוט המחמיא לכל תשובה או "משקף" את המשתמש, אלא כזה שמלמד שפה של הצבת גבולות, נותן הנחיות קונקרטיות ואף מציע תרגול משחקי תפקידים. כך למשל, במצב של שאלות אישיות לא נוחות מצד בעל דירה, הבוט מציע ניסוחים מנומסים אך תקיפים והמלצה לתיעוד, לצד תהליך שמטרתו לבנות יכולת עצמאית לאורך זמן.
פרויקט נוסף, News Nest, נוגע במשבר האמון במידע. הצוות שאחראי על הבוט יצר חוויית חדשות עם "להקת" ציפורים צבעוניות, כאשר לכל דמות תחום סיקור. הבחירה בדמויות לא אנושיות נועדה להפחית מניפולציה רגשית, והמערכת מתוכננת נגד Doomscrolling, תוך הצגת מקורות ונטיות פוליטיות כדי להגדיל שקיפות.
תוצר נוסף שהוצג בקורס, M^3 (Multi-Agent Murder Mystery), הופך את רעיון ההומאניות למשחק חברתי: תעלומת רצח מרובת סוכנים שבה משתתפים ארבעה צ׳אט-בוטים בעלי אישיות שונה, כולל ChatGPT, Grok ו-Claude, והמשתמש הוא השחקן החמישי. הגישה כאן מצביעה על תובנה שימושית לתעשייה: לא כל אינטראקציה עם AI צריכה להיות 'אינטימית' או חד-ערוצית, ולעיתים מבנה משחקי מרובה דמויות דווקא מפחית תלות בקול אחד.
Humane UXD מציע מודל חינוכי שמחבר בין אחריות חברתית ליישום טכנולוגי, ומציג כיוון אפשרי לתעשייה: צ׳אט-בוטים כמאמנים חברתיים, מתווכי מידע ושותפים לתרגול מיומנויות, לא כתחליף לחיים עצמם.
