
קרדיט תמונה: Jonathan Raa/NurPhoto / Getty Images
Anthropic מאשימה חברות בינה מלאכותית סיניות בגניבה המונית של יכולות Claude
חברת Anthropic חושפת כי DeepSeek, Moonshot AI ו-MiniMax יצרו למעלה מ-24,000 חשבונות מזויפים כדי לחלץ יכולות מהמודל Claude באמצעות טכניקת Distillation. החשיפה מגיעה בעיצומו של ויכוח אמריקאי על הגבלת ייצוא שבבי בינה מלאכותית לסין, כאשר Anthropic טוענת כי הפעולות הללו מחזקות את הצורך בפיקוח הדוק על העברת טכנולוגיה.
מתקפת distillation בהיקף חסר תקדים
חברת Anthropic חשפה השבוע את מה שהיא מגדירה כמתקפת גניבה טכנולוגית בהיקף חסר תקדים: שלושה מעבדות בינה מלאכותית סיניות הקימו למעלה מ-24,000 חשבונות מזויפים כדי לחלץ יכולות מהמודל Claude שלהן (כפי שעולה מפרסום רשמי של Anthropic).
החברות המואשמות - DeepSeek, Moonshot AI ו-MiniMax, ביצעו יחד למעלה מ-16 מיליון פניות למערכת עם Claude, תוך שימוש בטכניקה הנקראת "Dstillation". לטענת Anthropic, המתקפות התמקדו דווקא ביכולות המתקדמות ביותר של המודל: חשיבה אג'נטית, שימוש בכלים וקידוד.
Distillation: כלי לגיטימי או גניבת קניין רוחני?
טכניקת ה-Distillation היא שיטת אימון נפוצה בתעשיית הבינה המלאכותית, המשמשת חברות ליצירת גרסאות קטנות וזולות יותר מהמודלים שלהן. אולם כאשר מתחרים משתמשים בה כדי לחקות מודלים של חברות אחרות, הדבר נחשב כגניבת קניין רוחני.
זו לא האשמה ראשונה מסוגה: בתחילת החודש, OpenAI שלחה מזכר לחברי הקונגרס האמריקאי שבו האשימה את DeepSeek בשימוש ב-Distillation כדי לחקות את המוצרים שלה. DeepSeek עצמה זכתה לתשומת לב עולמית לפני כשנה עם השקת מודל ה-R1, מודל Open-source בעל יכולות חשיבה שהשתווה לביצועי מעבדות אמריקאיות מובילות במחיר הנמוך בצורה משמעותית מן המוצרים הקיימים.
היקף השונה של כל מתקפה
נתוני Anthropic מגלים הבדלים מובהקים בהיקף ובמטרות של כל חברה. DeepSeek ביצעה למעלה מ-150,000 פניות למערכת, שנראו מכוונים לשיפור הלוגיקה הבסיסית והיישור של המודל, במיוחד סביב פיתוח חלופות בטוחות לצנזורה לשאילתות רגישות מבחינה מדינית.
Moonshot AI ביצעה למעלה מ-3.4 מיליון פניות למערכת, שהתמקדו בחשיבה אג'נטית, שימוש בכלים, קידוד וניתוח נתונים, פיתוח סוכני computer-use וראייה ממוחשבת. בינואר האחרון, החברה השיקה מודל Open-source חדש Kimi K2.5 וסוכן קידוד.
MiniMax ביצעה את המתקפה המסיבית ביותר - 13 מיליון פניות שהתמקדו בקידוד אג'נטי, שימוש בכלים וחיבור רצף פעולות אוטומטיות לכדי פס ייצור שלם. Anthropic אף הצליחה לצפות ב-MiniMax בפעולה כאשר החברה הפנתה כמעט מחצית מהטראפיק שלה כדי לחלץ יכולות מהמודל העדכני ביותר של Claude ברגע ההשקה שלו.
קשר ישיר לוויכוח על ייצוא שבבים
החשיפה מגיעה בעיתוי רגיש במיוחד. בחודש שעבר, ממשל טראמפ אישר רשמית לחברות אמריקאיות כמו Nvidia לייצא שבבי בינה מלאכותית מתקדמים (כמו ה-H200) לסין. מבקרים טענו כי הרפיית הפיקוח על ייצוא שבבים מגדילה את כושר המחשוב הסיני בתחום הבינה המלאכותית בעת קריטית במרוץ העולמי.
לטענת Anthropic, היקף החילוץ שביצעו DeepSeek, MiniMax ו-Moonshot דורש גישה לשבבים מתקדמים. החברה הוסיפה כי מתקפות Distillation מחזקות את ההיגיון מאחורי פיקוח על יצוא שבבים, וגישה מוגבלת לשבבים מגבילה את אימון המודלים הישיר ואת היקף ה-Distillation הבלתי חוקי.
דמיטרי אלפרוביץ', יושב ראש ארגון החשיבה Silverado Policy Accelerator ומייסד שותף של CrowdStrike, אמר ל-TechCrunch כי הוא אינו מופתע מהמתקפות הללו: "כבר ברור זמן מה שחלק מהסיבה להתקדמות המהירה של מודלי בינה מלאכותית סיניים היא גניבה באמצעות Distillation של מודלים אמריקאיים מובילים, עכשיו אנחנו יודעים זאת כעובדה".
סיכונים לביטחון לאומי
מעבר לאובדן יתרון תחרותי, Anthropic מזהירה מסיכונים ביטחוניים. החברה מציינת כי היא וחברות אמריקאיות אחרות בונות מערכות שמונעות ממשתמשים להשתמש בבינה מלאכותית למטרות כמו פיתוח נשק ביולוגי או פעילויות סייבר זדוניות.
בפרסום של Anthropic נכתב כי מודלים שנבנו באמצעות Distillation בלתי חוקי לא יכללו את אותם אמצעי הגנה, כלומר יכולות מסוכנות יכולות להתפשט כשרוב ההגנות הוסרו לחלוטין. החברה מצביעה על שימוש של ממשלות אוטוריטריות בבינה מלאכותית מתקדמת לפעולות סייבר התקפיות, מסעות דיסאינפורמציה ומעקב המוני, סיכון שמתגבר אם המודלים הללו הופכים להיות Open-source.
השלכות על התעשייה המקומית
המקרה מדגיש את האתגר שעומד בפני חברות ישראליות המפתחות טכנולוגיות בינה מלאכותית מתקדמות. כמו Anthropic, גם חברות מקומיות עשויות להיות חשופות למתקפות Distillation, במיוחד כאשר הן מציעות גישה למודלים שלהן דרך API. התשובה הטכנולוגית צריכה לכלול מערכות זיהוי מתוחכמות וגבולות שימוש קפדניים, אך החשיפה מראה שההגנה הטכנולוגית לבדה אינה מספיקה.
Anthropic פרסמה שהיא תמשיך להשקיע בהגנות שמקשות על ביצוע מתקפות Distillation ויקלו על זיהוי מוקדם שלהן, אך היא קוראת לתגובה מתואמת בין תעשיית הבינה המלאכותית, ספקי ענן וקובעי מדיניות.
