חזרה לחדשות
OpenAI מציגה: מועצת מומחים לרווחה ולבינה מלאכותית תכוון את פיתוח ChatGPT ו־Sora

קרדיט תמונה: Zirat AI / AI

OpenAI מציגה: מועצת מומחים לרווחה ולבינה מלאכותית תכוון את פיתוח ChatGPT ו־Sora

14 באוקטובר 2025
מערכת זירת AI

לפי דיווח של OpenAI מהיום, החברה הקימה מועצת מומחים חדשה בת שמונה חוקרים ורופאים מתחומי הפסיכולוגיה, הפסיכיאטריה והאינטראקציה אדם־מחשב. המועצה תלווה את עיצוב ההתנהגות של ChatGPT ו־Sora במצבים רגישים, תסייע לקבוע קווי הגנה ידידותיים לכל הגילאים, ותבדוק את השפעת המערכות על רווחה נפשית ומוטיבציה. כך עולה מהפרסום של OpenAI.

OpenAI: החברה הקימה מועצת מומחים לרווחה ולבריאות נפשית בעידן ה־AI, שתייעץ באופן שוטף כיצד לבנות אינטראקציות בריאות ובטוחות עם ChatGPT ו־Sora לכל הגילאים. כך עולה מהפרסום של OpenAI.

המועצה כוללת שמונה מומחים בעלי ניסיון רב בהשפעת טכנולוגיה על רגשות, מוטיבציה ובריאות נפשית. התפקיד: לייעץ, לאתגר הנחות, ולהגדיר מהן אינטראקציות בריאות עם AI, במיוחד עבור בני נוער שמשתמשים ב־ChatGPT באופן שונה ממבוגרים.

מי חברים במועצה:

  • David Bickham PhD, Boston Children’s Hospital ו־Harvard Medical School: חוקר השפעת רשתות חברתיות על בני נוער.
  • Mathilde Cerioli PhD, everyone.AI: חוקרת מפגש AI עם התפתחות קוגניטיבית ורגשית של ילדים.
  • Munmun De Choudhury PhD, Georgia Tech: מובילה בגישות חישוביות להבנת הקשר בין פלטפורמות מקוונות לבריאות נפש.
  • Tracy Dennis-Tiwary PhD, Hunter College ו־Arcade Therapeutics: מפתחת משחקים דיגיטליים לבריאות נפש ובוחנת מפגשים בין טכנולוגיה לרווחה רגשית.
  • Sara Johansen MD, Stanford: מייסדת קליניקה לרפואה דיגיטלית בבריאות הנפש.
  • David Mohr PhD, Northwestern: מומחה לטכנולוגיות מניעה וטיפול בדיכאון וחרדה.
  • Andrew K. Przybylski PhD, University of Oxford: חוקר מוטיבציה ורווחה בהקשר של משחקי וידאו ורשתות חברתיות.
  • Robert K. Ross MD, לשעבר נשיא The California Endowment: מומחה בריאות ציבור ויוזמות קהילתיות.

כך יעבדו יחד: בשבוע שעבר נערכה פגישת פתיחה עם צוותי OpenAI. המועצה תקיים מפגשים תקופתיים לבחינת התנהגות המודל במצבים מורכבים, לשאול שאלות קשות, ולהמליץ על קווי הגנה המאזנים בין תועלת לבטיחות. במהלך פיתוח בקרות הורים ל־ChatGPT, מומחים בודדים כבר סייעו לקבוע אילו בקרות לפתח תחילה ואיך לעצב הודעות רגישות ומכבדות כאשר מזוהה מצוקה אצל מתבגרים.

הרחבת עבודת הבטיחות: במקביל, OpenAI עובדת עם תת־קבוצה רב־תחומית של קלינאי בריאות נפש ברשת ה־Global Physician Network, כדי לעצב התנהגות מודלים ומדיניות, ולבדוק תגובות בעולם האמיתי בתחומי פסיכיאטריה, פסיכולוגיה, ילדים והתערבות במשבר. החברה מציינת כי שיפורים נוספים צפויים במודל הראשי של ChatGPT, לצד עדכון מדיניות ושיתופי פעולה קליניים.

למה זה חשוב: עולם ה־AI מלווה בעלייה בשימוש בקרב צעירים ובביקוש לכלים תומכי רווחה. שילוב מומחים מהאקדמיה ומהקליניקה במעגל קבלת ההחלטות יכול לשפר מנגנוני הגנה כמו זיהוי מצוקה, ניסוח תגובות אמפתיות, בקרות הורים מותאמות גיל, ושקיפות לגבי מגבלות המערכת. עבור הורים ומחנכים, המשמעות היא סט כלים פרואקטיבי יותר ובדיקות שטח מבוססות ראיות.

הקשר רחב: ההכרזה משתלבת עם מהלכים נוספים של OpenAI בשבועות האחרונים, בהם השקת בקרות הורים ותשתיות לזיהוי גיל, לצד פרסומי Release Notes תכופים. המהלך מצביע על מגמה של העברת מרכז הכובד מהצהרות בטיחות כלליות ליישום פרקטיקות קליניות, ניסוחי הודעות מדודים, ובדיקות עומק של תרחישים רגישים.

בשורה התחתונה: OpenAI נותרת אחראית להחלטות ולמוצרים, אך מגבירה את ההישענות על מומחים חיצוניים כדי להגדיר סטנדרט חדש למפגש בין AI לרווחה נפשית, גם עבור משתמשים צעירים וגם עבור מבוגרים.

שאלות נפוצות