חזרה לחדשות
 כלים חדשים להגנה על בריאות הנפש? עדכון חדש ב-ChatGPT

קרדיט תמונה: OpenAI

כלים חדשים להגנה על בריאות הנפש? עדכון חדש ב-ChatGPT

28 בפברואר 2026
מערכת זירת AI

OpenAI פרסמה לקראת סוף חודש פברואר 2026 עדכון על עבודתה סביב שיחות רגישות ובריאות הנפש ב-ChatGPT, כולל פיתוח תכונת "איש קשר מהימן" והרחבת שיטות הערכה שמדמות שיחות ממושכות. במקביל, החברה עדכנה על איחוד תביעות בארה"ב בנושא, והדגישה מחויבות לשקיפות ולשיפור מנגנוני בטיחות.

OpenAI: עדכון על העבודה בתחום בריאות הנפש ב-ChatGPT ועל הליכים משפטיים. פרסום של OpenAI מסוף פברואר 2026 חושף כי החברה מחזקת את שכבות ההגנה בשיחות רגישות, לצד התייחסות ישירה לריכוז תביעות הקשורות לנושא בבתי המשפט בארצות הברית.

בטיחות בשיחות רגישות: תכונות חדשות והקשחת מנגנוני זיהוי מצוקה

לפי OpenAI, מדי שבוע משתמשים יותר מ-900 מיליון אנשים ב-ChatGPT כדי לשפר היבטים יומיומיים, כולל למידה, מידע כללי והתמצאות במערכות בריאות מורכבות. על רקע זה, החברה מציבה את נושא הבטיחות בשיחות רגשיות ובריאות הנפש כנדבך מרכזי, ומדגישה שהמטרה אינה “להחליף” גורמי טיפול אלא לצמצם סיכונים, לזהות סימני מצוקה ולהפנות לתמיכה בעולם האמיתי בעת הצורך.

המהלך הבולט הבא הוא תכונת "איש קשר מהימן" (Trusted Contact). התכונה, שצפויה להיכנס בהדרגה, תאפשר למשתמשים בוגרים לבחור אדם שיוכל לקבל התראות כאשר המערכת מזהה אינדיקציות לכך שהמשתמש עשוי להזדקק לתמיכה נוספת. OpenAI מציינת כי הפיתוח נעשה בשיתוף מומחים מ-Council on Well-Being and AI ומרשת Global Physicians Network. ברמת המוצר, מדובר במנגנון עזר שנועד לחבר בין שימוש דיגיטלי לבין רשת תמיכה אנושית, במיוחד במצבים שבהם משתמשים נוטים להישאר 'מכונסים בשיחה' במקום לפנות לעזרה מחוץ למערכת.

במקביל, החברה ממשיכה להרחיב את שיטות ההערכה (Evaluation) למודלים במצבי קצה. הפעם הדגש הוא על סימולציות של שיחות ממושכות בנושאי בריאות נפש, ולא רק הודעה בודדת. בעולם ה-AI זהו שינוי חשוב: סיכונים רבים אינם מתגלים על בסיס משפט יחיד, אלא נוצרים בהצטברות ההקשר, הטון, התנהגות המשתמש ותשובות עקביות לאורך זמן. בדיקות מסוג זה מאפשרות לאמן ולכוונן מודלים כך שיזהו דפוסים של הידרדרות, יאמצו טון מרגיע, יימנעו מהסלמה ויציעו נתיבי פעולה בטוחים יותר כמו פנייה לאנשי מקצוע או שירותי חירום בהתאם למקרה.

OpenAI מזכירה גם את בקרות ההורים שהושקו בספטמבר 2025, שלדבריה זכו לשימוש מעודד בקרב משפחות. במסגרת בקרות אלה, הורים מקבלים התראות בטיחות הקשורות לשימוש של בני נוער. החברה מאותתת שהגישה הכוללת היא שילוב בין הגנות ייעודיות לבני נוער, התאמות למדיניות המודל וכלי שליטה ושקיפות למשתמשים ולמשפחות.

עדכון משפטי: איחוד תביעות בקליפורניה והדגשת “המתנה לעובדות”

בחלק נפרד של ההודעה, OpenAI מעדכנת כי בית המשפט ריכז לאחרונה מספר תיקים הקשורים לבריאות הנפש ול-ChatGPT להליך מתואם אחד בקליפורניה. בימים הקרובים צפוי להתמנות שופט שינהל את ההליך, ובמקביל הודיעו עורכי דין של התובעים כי בכוונתם להגיש תיקים נוספים, שצפויים להתווסף לאותו הליך מרוכז.

החברה מדגישה כי תטפל בתיקים “בזהירות, שקיפות וכבוד” ותפעל לפי עקרונות של בירור עובדתי, הצגת טיעון מכבד שמכיר במורכבות המקרים, שמירה על רגישות לפרטים אישיים שעשויים להיחשף בבית המשפט, והמשך שיפור הטכנולוגיה ללא קשר להליך המשפטי. OpenAI מוסיפה כי הליכים משפטיים עשויים להיות ארוכים ולעיתים לא שקופים בשל כללי ראיות ופרוצדורה, ולכן היא קוראת להימנע מהסקת מסקנות מוקדמות עד שיתבררו העובדות.

למה זה חשוב לקהילת הטכנולוגיה?

העדכון ממחיש מגמה רחבה בעולם מודלי השפה: מעבר מהצהרות כלליות על “בטיחות” אל מנגנוני מוצר מדידים ושיטות בדיקה שמנסות ללכוד התנהגות לאורך זמן. זיהוי מצוקה, הסלמה והפניה לתמיכה הם אתגרים טכניים מבחינת מדיניות, משום שמדובר באיזון בין רגישות גבוהה לזיהוי סיכונים לבין הימנעות מהתרעות שווא או חדירה לפרטיות. תכונות כמו “איש קשר מהימן” מעלות גם שאלות יישומיות: אילו טריגרים מפעילים התראה, איך מצמצמים טעויות, ומהי רמת השליטה של המשתמש על שיתוף המידע.

OpenAI מציינת שתשתף פרטים נוספים בשבועות הקרובים ככל שהעדכונים יושקו ב-ChatGPT, וממקמת את המאמץ כחלק ממערך הבטיחות הרחב שלה סביב שיחות רגישות והגנות לקטינים.

שאלות נפוצות