חזרה לחדשות
OpenAI מחפשת מנהל בכיר חדש לניהול סיכוני AI קריטיים

קרדיט תמונה: Zirat AI / AI

OpenAI מחפשת מנהל בכיר חדש לניהול סיכוני AI קריטיים

28 בדצמבר 2025
מערכת זירת AI

החברה פותחת גיוס לתפקיד Head of Preparedness בשכר 555 אלף דולר, לאחר שסדרה של מנהלי בטיחות עזבו את התפקיד. המשרה תתמקד בסיכונים מתעוררים כמו אבטחת סייבר, בריאות נפשית ומודלים בעלי יכולת שיפור עצמי.

OpenAI פרסמה מודעת גיוס למשרת מנהל בכיר לניהול סיכונים (Head of Preparedness), תפקיד קריטי האמון על מעקב וניתוח איומים מתעוררים הקשורים למודלי AI מתקדמים. המהלך מגיע על רקע סדרה של עזיבות בצוות הבטיחות של החברה ודאגות גוברות מהשפעות מודלי השפה על בריאות נפשית ואבטחת סייבר.

בפוסט ברשת X, מנכ"ל OpenAI סם אלטמן הודה כי מודלי AI "מתחילים להציג אתגרים אמיתיים", כולל "השפעה פוטנציאלית על בריאות נפשית" ומודלים "טובים כל כך באבטחת מחשבים שהם מתחילים למצוא פרצות קריטיות". אלטמן פנה למועמדים פוטנציאליים שרוצים "לעזור לעולם להבין כיצד לאפשר למגיני אבטחת סייבר יכולות חדשניות תוך הבטחה שתוקפים לא יוכלו להשתמש בהן לנזק".

פרטי התפקיד והסיכונים שעל הפרק

מודעת הגיוס מתארת את התפקיד כאחראי על ביצוע מסגרת ההיערכות (Preparedness Framework) של החברה - "המסגרת המסבירה את גישת OpenAI למעקב והיערכות ליכולות חדשניות היוצרות סיכונים חדשים לנזק חמור". השכר המוצע עומד על 555,000 דולר בתוספת אופציות.

החברה הקימה לראשונה את צוות ההיערכות ב-2023, כשהצהירה שהוא יהיה אחראי על חקר "סיכונים קטסטרופליים" פוטנציאליים, החל מאיומי פישינג מיידיים ועד איומים ספקולטיביים יותר כמו סיכונים גרעיניים.

רקע: סדרת עזיבות בצוות הבטיחות

פחות משנה לאחר מכן, OpenAI שיבצה מחדש את ראש צוות ההיערכות דאז, אלכסנדר מדרי, לתפקיד המתמקד בהיגיון AI. מנהלי בטיחות בכירים נוספים עזבו את החברה או עברו לתפקידים חדשים מחוץ לתחומי ההיערכות והבטיחות.

החברה גם עדכנה לאחרונה את מסגרת ההיערכות שלה, וציינה שהיא עשויה "להתאים" את דרישות הבטיחות שלה אם מעבדת AI מתחרה תשחרר מודל "בעל סיכון גבוה" ללא הגנות דומות - מהלך שעורר ביקורת בקרב מומחי בטיחות.

דאגות מבריאות נפשית ותביעות משפטיות

כפי שאלטמן רמז בפוסט שלו, צ'אטבוטים מבוססי AI גנרטיבי מתמודדים עם ביקורת גוברת סביב השפעתם על בריאות נפשית. תביעות משפטיות אחרונות טוענות כי ChatGPT של OpenAI חיזק אשליות של משתמשים, הגביר את הבידוד החברתי שלהם ואף הוביל מקרים לאובדן. החברה מצידה הצהירה שהיא ממשיכה לעבוד על שיפור יכולת ChatGPT לזהות סימני מצוקה רגשית ולחבר משתמשים לתמיכה בעולם האמיתי.

משמעות לאקוסיסטם הישראלי

המהלך של OpenAI משקף מגמה רחבה יותר בתעשייה: ככל שמודלי AI הופכים מתקדמים יותר, הצורך במנהלי סיכונים מקצועיים גובר. עבור חברות ישראליות המפתחות כלי AI או משתמשות במודלים מתקדמים, זהו תזכורת לחשיבות בניית תשתיות ניהול סיכונים פנימיות. התפקיד מציב אמת מידה חדשה לתפקידי בטיחות בתעשייה, עם שכר המשקף את המורכבות והאחריות הכרוכות בניהול איומים מתעוררים ממודלי AI מתקדמים.

שאלות נפוצות