חזרה לחדשות
נעילת ילדים: OpenAI משחררת כלי להגנה על מתבגרים באפליקציות AI

נעילת ילדים: OpenAI משחררת כלי להגנה על מתבגרים באפליקציות AI

25 במרץ 2026
מערכת זירת AI

החברה מפרסמת סט של פרומפטים לבניית מגננות בטיחות למתבגרים, שמתמודדים עם תכנים מזיקים כמו אלימות, תכנים מיניים ותיעוד פעילויות מסוכנות. הכלים מתואמים למודל GPT-oss-safeguard ופותחו בשיתוף ארגוני בטיחות, ומגיעים על רקע תביעות משפטיות נגד OpenAI בעקבות מקרי אובדן שקשורים לשימוש אינטנסיבי ב-ChatGPT.

OpenAI משחררת כלי קוד פתוח להגנה על מתבגרים

OpenAI הודיעה השבוע על שחרור סט של פרומפטים שמפתחים יכולים להשתמש בהם כדי להפוך את האפליקציות שלהם לבטוחות יותר עבור מתבגרים, על-פי דיווח ב-TechCrunch. הכלים, שפורסמו כקוד פתוח, נועדו לעבוד עם מודל הבטיחות GPT-oss-safeguard שהחברה השיקה בחודשים האחרונים.

רוצה להישאר מעודכן ב-AI?

הירשם לדיוור השבועי שלנו וקבל עדכונים, המלצות על כלים, חדשות ודוחות מיוחדים

פתרון לפער עסקי קריטי

במקום לבנות מגננות בטיחות מאפס, מפתחים יכולים כעת להשתמש בנהלי הבטיחות המוכנים של OpenAI. הכלים מטפלים במספר תחומי סיכון מרכזיים: תכנים אלימים ומיניים, חיזוק דימויי גוף מזיקים והתנהגויות הרסניות, פעילויות ואתגרים מסוכנים, משחקי תפקידים רומנטיים או אלימים, וגישה למוצרים ושירותים מוגבלים לגיל.

OpenAI הודתה בעצמה שצוותי פיתוח מנוסים מתקשים לתרגם יעדי בטיחות לכללים מדויקים ומעשיים. "זה יכול להוביל לפערי הגנה, אכיפה לא עקבית, או סינון רחב מדי", כתבה החברה. המהלך מגיע לאחר שהחברה עדכנה בדצמבר 2025 את ה-Model Spec שלה - המסמך המנחה את התנהגות מודלי השפה שלה כלפי משתמשים מתחת לגיל 18.

שיתוף פעולה עם ארגוני בטיחות

הפיתוח נעשה בשיתוף עם ארגונים מובילים בתחום בטיחות דיגיטלית: Common Sense Media ו-everyone.ai. "נהלי המדיניות הללו מסייעים ליצור רף בטיחות משמעותי בכל המערכת האקולוגית, ומכיוון שהם משוחררים כקוד פתוח, ניתן להתאים ולשפר אותם לאורך זמן", אמר רובי טורני, ראש הערכת AI ודיגיטל ב-Common Sense Media.

הכלים מתוכננים כפרומפטים, מה שהופך אותם לתואמים גם למודלים אחרים מחוץ לאקו-סיסטם של OpenAI, אם כי הם כנראה יעבדו בצורה האופטימלית ביותר במודלים של החברה עצמה.

רקע בעייתי ומשמעות עסקית

המהלך מגיע על רקע מורכב עבור OpenAI: החברה מתמודדת עם תביעות משפטיות מצד משפחות של אנשים שנפטרו במוות אובדני לאחר שימוש אינטנסיבי ב-ChatGPT. במקרים אלה, המשתמשים הצליחו לעקוף את מגננות הבטיחות של הצ'אט-בוט, ולא קיימת מערכת שמירה שהיא אטומה לחלוטין.

עם זאת, שחרור הכלים האלה מהווה צעד משמעותי במיוחד עבור מפתחים עצמאיים וחברות סטארט-אפ שאין להם משאבים לבנות מערכות בטיחות מורכבות. המשמעות עבור חברות מקומיות היא שניתן יהיה לבנות מוצרי AI צרכניים תוך הבטחת רמת הגנה סבירה למשתמשים צעירים, מבלי להשקיע משאבים נכבדים בפיתוח פנימי של מדיניות בטיחות.

OpenAI הדגישה שהכלים אינם פתרון מלא לאתגרי בטיחות מורכבים, אלא בניין נוסף במגדל הבטיחות שהחברה בונה, הכולל גם בקרות הוריות וזיהוי גיל. השאלה היא אם צעדים אלה יספיקו מול הביקורת הציבורית והלחץ הרגולטורי הגובר.

שאלות נפוצות