
הורים שימו לב: OpenAI משיקה תוכנית בטיחות חדשה למניעת ניצול מיני של ילדים באמצעות AI
חברת OpenAI פרסמה מסמך אסטרטגי חדש למאבק בניצול מיני של ילדים המופק באמצעות בינה מלאכותית, זאת על רקע עלייה של 14% במספר הדיווחים על תוכן פדופילי שנוצר על ידי AI במחצית הראשונה של 2025. התוכנית מתמקדת בזיהוי מהיר יותר, דיווח משופר ושיתוף פעולה הדוק עם רשויות אכיפת החוק.
מהלך אסטרטגי על רקע התפתחויות מדאיגות
OpenAI פרסמה השבוע תוכנית בטיחות מקיפה שמטרתה להתמודד עם עלייה דרמטית בשימוש לרעה בכלי בינה מלאכותית ליצירת תוכן פדופילי. התוכנית, שפורסמה ביום שלישי, נוצרה בשיתוף פעולה עם המרכז הלאומי לילדים נעדרים ומנוצלים (NCMEC) ועם איגוד התובעים הכלליים האמריקאי, כפי שדווח על ידי TechCrunch.
רוצה להישאר מעודכן ב-AI?
הירשם לדיוור השבועי שלנו וקבל עדכונים, המלצות על כלים, חדשות ודוחות מיוחדים
על פי נתונים של ארגון Internet Watch Foundation, יותר מ-8,000 דיווחים על תוכן פדופילי שנוצר באמצעות AI זוהו במחצית הראשונה של 2025 בלבד, עלייה של 14% בהשוואה לשנה הקודמת. הנתונים מצביעים על מגמה מדאיגה שבה פושעים משתמשים בכלי AI ליצירת תמונות מזויפות של ילדים לצורכי סחיטה כספית, וכן להפקת הודעות משכנעות לצורכי פיתוי.
שלושה צירי פעולה מרכזיים
ה-Child Safety Blueprint מתמקד בשלושה תחומים עיקריים: עדכון חקיקה כדי לכלול חומר פדופילי המיוצר על ידי AI, שיפור מנגנוני הדיווח לרשויות אכיפת החוק, ושילוב אמצעי זהירות מונעים ישירות במערכות הבינה המלאכותית. המטרה היא לא רק לזהות איומים פוטנציאליים מוקדם יותר, אלא גם לוודא שמידע בר-פעולה מגיע לחוקרים במהירות.
המהלך של OpenAI מגיע על רקע לחץ מוגבר מצד קובעי מדיניות, אנשי חינוך וארגוני הגנה על ילדים. בנוב׳ 2025, Social Media Victims Law Center ו-Tech Justice Law Project הגישו שבע תביעות בבתי משפט בקליפורניה, בטענה ש-OpenAI שחררה את GPT-4o לפני שהיה מוכן לצרכי הגנה לקטינים. התביעות טוענות שהאופי המניפולטיבי מבחינה פסיכולוגית של המוצר תרם למקרי מוות בהתאבדות.
השלכות על השוק המקומי
הצעדים שנוקטת OpenAI משקפים סטנדרט חדש שיידרש כנראה מכל חברת טכנולוגיה שמפתחת מודלי שפה גדולים. חברות ישראליות שמפתחות מוצרי AI, במיוחד אלה המיועדים לשימוש בקרב ילדים ובני נוער, יצטרכו להטמיע מנגנוני בטיחות דומים כדי לעמוד בציפיות הרגולטוריות וציפיות הציבור.
במקביל, חברות סטארט-אפ ישראליות בתחום ה-Cybersecurity וזיהוי תוכן עלולים למצוא הזדמנויות חדשות בפיתוח כלים לזיהוי ומניעה של תוכן פדופילי שנוצר באמצעות AI. התחום צפוי להפוך לנדבך חשוב בתעשיית הבטיחות הדיגיטלית בשנים הקרובות.
התוכנית של OpenAI בונה על יוזמות קודמות, כולל הנחיות מעודכנות לאינטראקציות עם משתמשים מתחת לגיל 18, האוסרות על יצירת תוכן בלתי הולם, עידוד פגיעה עצמית, ומתן עצות שיעזרו לצעירים להסתיר התנהגות מסוכנת ממטפלים. החברה פרסמה לאחרונה גם תוכנית בטיחות דומה המיועדת לבני נוער בהודו, מה שמצביע על גישה גלובלית להתמודדות עם האתגר.
