חזרה לחדשות
עכשיו זה רשמי: הסכסוך עולה בדרגה: Anthropic תובעת את משרד הביטחון האמריקאי

עכשיו זה רשמי: הסכסוך עולה בדרגה: Anthropic תובעת את משרד הביטחון האמריקאי

10 במרץ 2026
מערכת זירת AI

חברת הבינה המלאכותית Anthropic הגישה תביעות משפטיות נגד משרד הביטחון האמריקאי לאחר שסומנה כ"חברה המהווה סיכון לשרשרת האספקה". החברה טוענה שהמהלך בלתי חוקי ומהווה נקמה על סירובה לאפשר שימוש במודלים שלה למעקב המוני ולנשק אוטונומי. התווית הממשלתית עלולה לגרום לאובדן רוב ההכנסות מהסקטור הציבורי, בעוד חברות פרטיות ממשיכות לעבוד עם החברה.

עימות משפטי בין ענקית AI לבין הפנטגון

Anthropic, היצרנית של מודל השפה Claude, הגישה ביום שני שתי תביעות נפרדות נגד משרד הביטחון האמריקאי, לאחר שהאחרון סימן אותה כ"חברה המהווה סיכון לשרשרת האספקה". כפי שפרסמנו בשבוע שעבר, מדובר בהסלמה דרמטית בסכסוך שנמשך כבר מספר שבועות בין החברה לבין הממשל האמריקאי. [הפנטגון מגדיר את Anthropic כסיכון לביטחון לאומי] (https://ziratai.org/news/anthropic-ai-national-security-risk)

רוצה להישאר מעודכן ב-AI?

הירשם לדיוור השבועי שלנו וקבל עדכונים, המלצות על כלים, חדשות ודוחות מיוחדים

במרכז המחלוקת עומדים שני קווים אדומים ברורים שהציבה Anthropic: החברה אינה מוכנה לאפשר שימוש בטכנולוגיה שלה למעקב המוני אחר אזרחים אמריקאים, ואינה מאמינה שהמודלים שלה מוכנים להפעיל נשק אוטונומי מלא ללא מעורבות אנושית בהחלטות תקיפה. שר הביטחון פיט הגסת' טען כי הפנטגון צריך גישה חופשית למערכות AI לכל "מטרה חוקית", ללא מגבלות מצד קבלן פרטי.

סימון חסר תקדים ותוצאותיו

סימון "חברה המהווה סיכון לשרשרת אספקה" שמור בדרך כלל ליריבים זרים, ומחייב מאז ההכרזה כל חברה או סוכנות העובדת עם הפנטגון לאשר שאינה משתמשת במודלים של Anthropic. בעוד חברות פרטיות כמו Microsoft ממשיכות לעבוד עם החברה, היא צפויה לאבד חלק ניכר מהעסקים שלה בתוך המגזר הממשלתי.

בתביעה שהוגשה לבית המשפט הפדרלי בסן פרנסיסקו, Anthropic מכנה את פעולות משרד הביטחון "חסרות תקדים ובלתי חוקיות" ומאשימה את הממשל בנקמה. "החוקה אינה מאפשרת לממשלה להפעיל את כוחה העצום כדי להעניש חברה על דיבור מוגן. הדיבור המוגן אליו מתייחסת החברה הוא האמונה שלה במגבלות שירותי ה-AI שלה ובסוגיות חשובות של בטיחות בינה מלאכותית", נכתב בכתב התביעה.

הממשל, כולל שר הביטחון והנשיא טראמפ, תקף את Anthropic ואת מנכ"ל החברה, דריו אמודיי, והגדיר אותם כ"רדיקליים" על רקע הקריאות של החברה לאמצעי בטיחות ושקיפות מחמירים יותר בתחום ה-AI.

טיעונים משפטיים וחוקתיים

בתביעה, Anthropic טוענת שהממשלה אינה חייבת להסכים עם עמדותיה או להשתמש במוצריה, אך אינה יכולה להפעיל את כוח המדינה כדי להעניש או לדכא את הביטוי שלה. החברה גם טוענה שאף חוק פדרלי אינו מסמיך את הפעולות שננקטו, וכי הסימון הוצא ללא קיום הנהלים שקונגרס דרש.

בדרך כלל, החוק מחייב סוכנויות לבצע הערכת סיכונים, להודיע לחברה המיועדת ולאפשר לה להגיב, לבצע קביעה בכתב של ביטחון לאומי, ולהודיע לקונגרס לפני מניעה מוחלטת של ספק משרשרת האספקה הפדרלית. Anthropic טוענה שהליך זה לא בוצע כראוי.

בנוסף, החברה מאשימה את הנשיא בפעולה מחוץ לסמכויות שהוענקו לו על ידי הקונגרס כאשר הורה לכל סוכנות פדרלית להפסיק מיד את השימוש בטכנולוגיה של Anthropic. כתוצאה מהצהרות של הנשיא טראמפ ושר הביטחון הגסת', רשות השירותים הכלליים (GSA) ביטלה את חוזה ה-OneGov של Anthropic, וסיימה את זמינות השירותים שלה לכל שלוש זרועות הממשלה הפדרלית.

השלכות כלכליות ואסטרטגיות

"הנתבעים מבקשים להרוס את הערך הכלכלי שנוצר על ידי אחת החברות הפרטיות הצומחות ביותר בעולם", נכתב בתביעה. "הפעולות שננקטו גורמות נזק מידי ובלתי הפיך ל-Anthropic, לאחרים שביטויים יוכחש, לאלה הנהנים מהערך הכלכלי שהחברה יכולה להמשיך ליצור, ולציבור עולמי הראוי לדיאלוג ולדיון חזק על משמעות ה-AI עבור לוחמה ומעקב".

כחלק מהתביעה, Anthropic ביקשה מבית המשפט להקפיא את הסימון של משרד הביטחון בזמן שהתיק מתנהל, ובסופו של דבר לבטל ולחסום לצמיתות את האכיפה שלו על ידי הממשלה: "חיפוש סעד משפטי אינו משנה את המחויבות ארוכת השנים שלנו לרתום AI כדי להגן על הביטחון הלאומי שלנו, אך זהו צעד הכרחי כדי להגן על העסק שלנו, על הלקוחות שלנו ועל השותפים שלנו", מסר דובר החברה.

Anthropic הגישה תביעה נפרדת בבית המשפט לערעורים בוושינגטון מכיוון שחוק הרכש הפדרלי מאפשר לחברות לערער על סימוני התיוג כחברה המהווה סיכון לשרשרת אספקה. העתירה מבקשה מבית המשפט לבחון ולבטל את החלטת משרד הביטחון.

משמעות לשוק הישראלי

מקרה זה מדגיש את המתח הגובר בין חברות טכנולוגיה לבין שימושים ממשלתיים בבינה מלאכותית, סוגיה רלוונטית גם לישראל. חברות ישראליות רבות מפתחות טכנולוגיות AI הן לשימוש אזרחי והן לצבאי, והמקרה של Anthropic עשוי ליצור תקדים לגבי היכולת של חברות פרטיות לקבוע מגבלות שימוש במוצרים שלהן. השאלה האם ממשלות יכולות לכפות על חברות טכנולוגיה שיתוף פעולה מלא בתחום הביטחון, או שלחברות יש זכות לקבוע קווים אדומים, עשויה להשפיע גם על החברות הישראליות הפועלות בתחום.

שאלות נפוצות