חזרה לחדשות
יריה עצמית ברגל ? מחיר ההתנגדות לרגולציה של Anthropic

יריה עצמית ברגל ? מחיר ההתנגדות לרגולציה של Anthropic

5 במרץ 2026
מערכת זירת AI

אנתרופיק הושהתה מעבודה עם הפנטגון לאחר שסירבה לאפשר שימוש בטכנולוגיה שלה למעקב המוני ולרחפנים אוטונומיים. לפי פרופסור מקס טגמרק מ-MIT, החברה שיווקה את עצמה כמובילה בבטיחות, יחד עם OpenAI ו-Google DeepMind, הביאה את זה על עצמה: במשך שנים השקיעו חברות AI מיליארדים בלובינג נגד רגולציה, הבטיחו לפקח על עצמן בהתנדבות, ועכשיו מגלות שאין כמעט דבר שמגן עליהן כשהממשל דורש שימושים שהן מתנגדות להם.

הקרב על העתיד של AI החל - והחברות שהבטיחו בטיחות מגלות שהן חשופות

ביום שישי אחר הצהריים, בעודו נערך לראיון עם כתבת TechCrunch קוני לויזוס, הבהב על המסך התראה דרמטית: ממשל טראמפ מנתק קשרים עם אנתרופיק. שר ההגנה פיט הגסת' הפעיל חוק ביטחון לאומי כדי להכניס את חברת הבינה המלאכותית לרשימה שחורה של ספקים מסוכנים, לאחר סירוב המנכ"ל להרשות שימוש בטכנולוגיה של החברה למעקב המוני על אזרחים אמריקאים או לרחפנים חמושים אוטונומיים שיכולים לבחור ולהרוג מטרות ללא התערבות אנושית.

רוצה להישאר מעודכן ב-AI?

הירשם לדיוור השבועי שלנו וקבל עדכונים, המלצות על כלים, חדשות ודוחות מיוחדים

הנזק העסקי מיידי: אנתרופיק עומדת להפסיד חוזה בשווי עד 200 מיליון דולר, ונאסר עליה לעבוד עם קבלני הגנה נוספים לאחר שהנשיא טראמפ הורה בפלטפורמת Truth Social לכל סוכנות פדרלית "להפסיק מיד כל שימוש בטכנולוגיה של אנתרופיק". החברה הודיעה שהיא מתכוונת לתבוע את הפנטגון בבית המשפט.

"הדרך לגיהינום רצופה כוונות טובות"

מקס טגמרק, פרופסור לפיזיקה ב-MIT ומייסד ה-Future of Life Institute, מזהיר כבר כעשור שהמירוץ לפיתוח מערכות בינה מלאכותית חזקות יותר ויותר מקדים את יכולת העולם לפקח עליהן. בעיניו, המשבר של אנתרופיק הוא תוצאה בלתי נמנעת של בחירה שנעשתה לפני שנים - בחירה משותפת לכל התעשייה: להתנגד לרגולציה מחייבת.

"הדרך לגיהינום רצופה כוונות טובות", אומר טגמרק בראיון (שישודר בשלמותו בפודקאסט StrictlyVC Download של TechCrunch). "מעניין לחשוב אחורה לפני עשור, כשאנשים היו כל כך נלהבים מאיך אנחנו הולכים ליצור בינה מלאכותית שתרפא סרטן, תגדיל את השגשוג באמריקה ותעשה את אמריקה חזקה. והנה אנחנו עכשיו, כשממשלת ארה"ב זועמת על החברה הזו בגלל שהיא לא רוצה ש-AI ישמש למעקב המוני ביתי על אמריקאים, וגם לא רוצה רובוטים רוצחים שיכולים באופן אוטונומי - ללא כל התערבות אנושית - להחליט מי נהרג".

החברות שסירבו לרגולציה - וכרגע משלמות את המחיר

אנתרופיק בנתה את כל הזהות שלה סביב המושג "בטיחות קודם כל", אבל לטגמרק מתייחס לזאת בצורה צינית יותר: "אנתרופיק הייתה טובה מאוד בשיווק של עצמה כחברה שהכול אצלה עניין של בטיחות, אבל אם באמת מסתכלים על העובדות ולא על הטענות, מה שרואים הוא שאנתרופיק, OpenAI, Google DeepMind ו-xAI כולן דיברו הרבה על איך אכפת להן מבטיחות. אף אחת מהן לא יצאה בתמיכה ברגולציית בטיחות מחייבת כמו שיש לנו בתעשיות אחרות. וכל ארבע החברות האלה הפרו כעת את ההבטחות שלהן למשתמשים".

טגמרק מונה את השינויים האחרונים: גוגל ויתרה על הסיסמה "Don't be evil", ולאחר מכן על התחייבות ארוכה יותר שהבטיחה לא לגרום נזק עם AI. OpenAI הסירה את המילה "בטיחות" מהצהרת המשימה שלה. xAI סגרה את כל צוות הבטיחות. מוקדם יותר השבוע, אנתרופיק ביטלה את ההתחייבות החשובה ביותר שלה - ההבטחה לא לשחרר מערכות AI חזקות עד שהחברה תהיה בטוחה שהן לא יגרמו נזק.

"כל החברות האלה לחצו בעקביות נגד רגולציה של AI, ואמרו 'פשוט בטחו בנו, אנחנו הולכים לווסת את עצמנו'. והן לחצו בהצלחה", מסביר טגמרק. "אז כרגע יש לנו פחות רגולציה על מערכות AI באמריקה מאשר על כריכים. אם אתה רוצה לפתוח חנות כריכים ומפקח הבריאות מוצא 15 עכברושים במטבח, הוא לא ייתן לך למכור כריכים עד שתתקן את זה, אבל אם אתה אומר 'אל דאגה, אני לא הולך למכור כריכים, אני הולך למכור חברים מלאכותיים לילדים בני 11, שכבר קושרו להתאבדויות בעבר, ואז אני הולך לשחרר משהו שנקרא Superintelligence שאולי יפיל את ממשלת ארה"ב, אבל יש לי תחושה טובה לגבי המערכות שלי' - המפקח חייב להגיד 'בסדר, קדימה, רק אל תמכור כריכים'".

המלכודת הכלכלית: מחיר ההתנגדות לחוק

האירוניה המרכזית, לפי טגמרك, היא שהתנגדותן של החברות לחוקים המגדירים מה מותר ומה אסור עם AI חוזרת עכשיו בבומרנג: "אין כרגע חוק נגד בניית AI שיתיר להרוג אזרחים אמריקאים, אז הממשלה יכולה פתאום לבקש את זה. המצב יכל היה להיות שונה אם החברות עצמן היו יוצאות מוקדם יותר".

הנתונים שהוא מצטט מדאיגים: לפני שש שנים, כמעט כל מומחה AI שהוא הכיר חזה שנמצאים עשרות שנים רחוק מבינה מלאכותית שיכולה לשלוט בשפה ובידע ברמה אנושית. "כולם טעו, כי כבר יש לנו את זה עכשיו", הוא אומר. במאמר שפרסם לפני מספר חודשים עם יושוע בנג'יו ודן הנדריקס, הוא נתן הגדרה מדויקת ל-AGI. לפי זה, GPT-4 היה 27% מהדרך לשם. GPT-5 היה 57% מהדרך. "אנחנו עוד לא שם, אבל לעבור מ-27% ל-57% כל כך מהר מרמז שאולי זה לא יקח הרבה זמן".

רגע האמת: מי יעמוד בצד אנתרופיק?

בלילה שלאחר ההכרזה על ההרחקה, סם אלטמן מ-OpenAI הודיע שהוא עומד לצד אנתרופיק ויש לו אותם קווים אדומים. "אני מעריך אותו על האומץ לומר את זה", אומר טגמרק. שעות לאחר מכן, OpenAI הכריזה על עסקה משלה עם הפנטגון. גוגל שתקה. xAI לא הגיבה.

"בעצם, זה הרגע שבו כולם צריכים להראות את הפנים האמיתיים שלהם", הוא מסכם.

הפרדוקס הסיני שמנפץ את טיעון המירוץ הגלובלי מעניין במיוחד: "סין נמצאת בתהליך של איסור 'חברים מלאכותיים' לחלוטין. לא רק הגבלות גיל - הם בוחנים איסור על כל כלי AI. למה? לא בגלל שהם רוצים לרצות את אמריקה, אלא בגלל שהם מרגישים שזה הורס את הנוער הסיני ועושה את סין חלשה. ברור שזה גם עושה את הנוער האמריקאי חלש".

לחברות ישראליות בתחום AI, המקרה מציב שאלה משמעותית: האם כדאי להשקיע במערכות יחסים עם ענקיות אמריקאיות שעלולות להיות מורחקות בעתיד, או לבנות תשתיות עצמאיות יותר? השוק המקומי עשוי למצוא הזדמנות בפיתוח פתרונות AI שמאוזנים יותר בין יכולות לבין בטיחות - דווקא בזכות גודלו הקטן יחסית והרגולציה המוקדמת שעשויה להתפתח כאן.

שאלות נפוצות