חזרה לחדשות
OpenAI משיקה את OpenAI Safety Fellowship: תוכנית חדשה למחקר בטיחות ויישור בינה מלאכותית עם מלגה, משאבי מחשוב ומנטורים

OpenAI משיקה את OpenAI Safety Fellowship: תוכנית חדשה למחקר בטיחות ויישור בינה מלאכותית עם מלגה, משאבי מחשוב ומנטורים

7 באפריל 2026
מערכת זירת AI

בפרסום של OpenAI מאפריל 2026 נפתחה ההרשמה לתכנית OpenAI Safety Fellowship, פיילוט חדש לחוקרים חיצוניים שיתמקד בבטיחות ויישור מערכות AI מתקדמות. התוכנית כוללת ליווי מנטורים, תקציב חודשי ותמיכת מחשוב, ומכוונת ליצור תוצרים מחקריים מדידים כמו מאמרים, בנצ'מרקים ומאגרי נתונים.

החברה הודיעה על קול קורא להגשת מועמדות ל OpenAI Safety Fellowship: תוכנית חדשה לחוקרי בטיחות ויישור בינה מלאכותית המיועדת לחוקרים, מהנדסים ואנשי פרקטיקה מחוץ לחברה, במטרה לקדם מחקר קפדני ובעל השפעה בתחומי הבטיחות והכוונה של מערכות AI מתקדמות.

מהי התכנית המוצעת ומה היעד שלה

לפי OpenAI, התוכנית תרוץ בין 14 בספטמבר 2026 ל 5 בפברואר 2027, ותבנה סביב מודל עבודה של קוהורט: עמיתים שישלבו עבודה עצמאית עם חניכה צמודה ממנטורים של OpenAI ושיח מקצועי עם קבוצת עמיתים. העמיתים יוכלו לעבוד ממרחב ייעודי בברקלי לצד עמיתים נוספים במשרדים, אך תתאפשר גם עבודה מרחוק.

רוצה להישאר מעודכן ב-AI?

הירשם לדיוור השבועי שלנו וקבל עדכונים, המלצות על כלים, חדשות ודוחות מיוחדים

מטרת התוכנית אינה הכשרה כללית בלבד, אלא יצירת תוצר מחקרי משמעותי שניתן להערכה בסוף התקופה, כגון מאמר מדעי, בנצ'מרק להערכה, או דאטה-סט שישרת את הקהילה. במונחים של קהילת הבטיחות, מדובר בהכוונה לפרויקטים שמייצרים מדדים ברי שיתוף, תשתיות בדיקה, או מתודולוגיות שמאפשרות לבחון התנהגות של מודלים בתנאים מציאותיים.

תחומי עדיפות: מה OpenAI רוצה לראות

OpenAI מציינת שתחומי העדיפות כוללים הערכת בטיחות, אתיקה, רובסטיות, מנגנוני הקלה בקנה מידה, שיטות בטיחות ששומרות על פרטיות, פיקוח על סוכנים, וכן תחומי שימוש לרעה בכלי AI אשר עלולים לגרום לנזק משמעותי. מאחורי הרשימה הזו עומד צורך גובר בעולם ה GenAI למדוד לא רק יכולות, אלא גם סיכונים: האם המודל ניתן להפעלה בטוחה תחת אילוצים, האם הוא עמיד להנדסת פרומפטים ולניסיונות פריצה, והאם ניתן לצמצם התנהגויות מסוכנות בלי לפגוע באופן לא מידתי בתועלת.

בהיבט הטכני, “הערכת בטיחות” מתורגמת לעיתים לבנצ'מרקים שנועדו לגלות כשלים כמו הזיות עובדתיות, דליפת מידע רגיש, סיוע עקיף לפעילות בלתי חוקית, או הטיות מערכתיות. “רובסטיות” עוסקת בעמידות לשינויים בקלט או לתקיפות אדברסריות, בעוד “מיטיגציית סקיילביליים” מתייחסים לגישות שמחזיקות גם כאשר המודלים גדלים והיישומים מתרבים, למשל שילוב סינון, ניטור ושכבות בקרת מדיניות אוטומטיות. “שיטות משמרות פרטיות” מתקשרות לטכניקות כמו עיבוד מינימלי של נתונים, אנונימיזציה, ומודלים של שיתוף תובנות ללא חשיפת נתוני משתמשים, לצד גישות מקובלות כמו פרטיות דיפרנציאלית במקרים מתאימים.

מי יכול להגיש מועמדות ומה מקבלים

הקול הקורא פתוח למועמדים מתחומים מגוונים, כולל מדעי המחשב, מדעי החברה, סייבר, פרטיות ו HCI. OpenAI מדגישה שהיא מעדיפה יכולת מחקרית, שיקול דעת טכני וביצוע על פני תעודות ספציפיות. יחד עם זאת, יידרשו מכתבי המלצה. התוכנית כוללת מלגה חודשית, תמיכת מחשוב וליווי מתמשך. בנוסף, העמיתים יקבלו קרדיטים ל API ומשאבים נוספים לפי הצורך, אך OpenAI מדגישה כי לא תינתן להם גישה למערכות פנימיות.

לוחות זמנים ופרטים להגשה

ההרשמה פתוחה כעת ותיסגר ב 3 במאי. החברה תבחן את כל ההגשות ותודיע למועמדים שיתקבלו עד 25 ביולי. לשאלות לגבי התהליך הוגדר איש קשר במייל: openaifellows@constellation.org.

בעבור תעשיית ה AI, עצם ההקמה של מסלול ייעודי למחקר חיצוני משקפת מגמה רחבה: הבטחת התקדמות ביכולות לצד השקעה שיטתית בהערכה, בקרה ומסגרות יישור, כך שהטכנולוגיה תישאר שימושית ובטוחה גם כאשר היא מתקרבת לסביבות אוטונומיות יותר ותרחישי שימוש בסיכון גבוה.

שאלות נפוצות