חזרה לחדשות
Lambda חותמת על עסקת תשתיות AI ענקית עם מיקרוסופט ו-Nvidia

קרדיט תמונה: Zirat AI / AI

Lambda חותמת על עסקת תשתיות AI ענקית עם מיקרוסופט ו-Nvidia

4 בנובמבר 2025
מערכת זירת AI

חברת הענן Lambda העמיקה את שיתוף הפעולה עם Microsoft בעסקה של רבבות GPU של Nvidia, כולל מערכות GB300 NVL72 מהדור החדש. ההיקף הכספי לא פורסם, אך המהלך מצטרף לגל הסכמי ענן והייטק של מיליארדים סביב AI, ומאותת על מירוץ חימוש מתמשך בחומרה ובקיבולת מחשוב. ההשפעות צפויות להרגיש גם בקרב סטארטאפים המשתמשים ב-Azure.

חברת הענן Lambda הודיעה על הסכם רב-שנתי עם Microsoft לפריסת רבבות מעבדי GPU של Nvidia, בהם גם מערכי GB300 NVL72 מהדור החדש שנכנסו לשלב משלוחים בחודשים האחרונים. ההיקף המדויק לא פורסם, אך לפי הדיווח בTechCrunch, מדובר בעסקה של מיליארדי דולרים שמחזקת את מעמד Azure בתור יעד מוביל להרצת עומסי אימון והסקה של מודלים גדולים.

ההודעה מגיעה בסמיכות לשתי התפתחויות שמשרטטות את קווי הקרב בתשתיות AI: מיקרוסופט הודיעה שעות קודם לכן על עסקה של 9.7 מיליארד דולר לקיבולת ענן עם IREN האוסטרלית, ואילו OpenAI חשפה הסכם ענן של 38 מיליארד דולר עם Amazon, לצד דיווחים על עסקת 300 מיליארד דולר עם Oracle שנחתמה בספטמבר. התמונה הכוללת ברורה: שחקני הענן וה-AI מאבטחים קיבולת אסטרטגית לטווח ארוך, ובפרט גישה לסדרות ה-GPU המתקדמות של Nvidia.

מבחינת יכולות, מערכי GB300 NVL72 צפויים להוות בסיס לקלאסטרים צפופים בעלי קישוריות מהירה במיוחד שמכוונים לאימון מודלים גדולים מאוד. מיקרוסופט ציינה כי פתחה באוקטובר את האשכול הגדול הראשון שלה לדור זה ב-Azure לעומסי OpenAI, מה שמרמז כי פריסות ייצור נוספות בדרך. עבור לקוחות ארגוניים ומשתמשי סטארטאפים, המשמעות המיידית אינה בהכרח ירידת מחירים, אלא זמינות משופרת והפחתת זמני המתנה לסלוטים של GPU.

Lambda, שהוקמה ב-2012 וגייסה עד כה 1.7 מיליארד דולר, פועלת בשנים האחרונות כספקית תשתיות GPU בענן, לצד חומרה ייעודית ומערכות על לאימון מודלים. היא מתחרה בספקיות ממוקדות-GPU כמו CoreWeave, Crusoe ו-Voltage Park, ובשנים האחרונות ביססה לעצמה מקום כשכבה משלימה לאתרים האדירים של ההייפרסקיילרים. עבור מיקרוסופט, זו עוד אבן דרך בבניית שרשרת אספקה גמישה ל-AI, הן דרך השקעות בקיבולת פנים-עננית והן דרך שיתופי פעולה תפעוליים עם ספקיות חיצוניות.

לשוק הישראלי, שבו עשרות סטארטאפים בתחום ה-GenAI, הסייבר והפינטק מריצים עומסים על Azure ו-AWS, המגמה הזו משמעותית בכמה מישורים:

  • זמינות: גידול בקלאסטרים מהדור החדש עשוי לקצר זמני המתנה ל-GPU, במיוחד לפרויקטים עתירי פרמטרים והקצאות מרובות-נודים.
  • תכנון עלויות: התחייבויות רב-שנתיות של הספקיות לא בהכרח יורידו מחירים בטווח הקצר. מומלץ לשלב הזמנות Capacity Reservation ומסלולי התחייבות לצד Spot היכן שאפשר.
  • ניידות ועיצוב מולטי-קלאוד: ארכיטקטורה מבוססת Kubernetes, ספריות מבוזרות סטנדרטיות וכלי orchestration לניהול אימונים תאפשרנה מעבר בין עננים וקלאסטרים בלי תלות עמוקה בספק יחיד.
  • לוקליזציה ולטנטיות: הפריסות צפויות להתרחב באזורים שונים בעולם. לא ברור אם חלק מהקיבולת תגיע גם לאזורים קרובים לישראל, אך לקוחות מקומיים נוהגים לשלב אזורי אירופה והמזרח התיכון כדי לאזן בין זמינות, עלות ורגולציה.

ברקע, ספקיות הענן מדווחות על דחיפה חזקה של הביקוש לתשתיות AI. ב-AWS ציינו האצה שנתית של יותר מ-20 אחוז והוספת 3.8 ג׳יגה-ואט קיבולת חשמלית בשנה האחרונה. המסר לשוק ברור: צווארי הבקבוק עוברים מהשגת שבבים בלבד לניהול קיבולת אנרגיה, קישוריות ותפעול קלאסטרים צפופים. בעסקה הנוכחית, מיקרוסופט ו-Lambda ממצבות את עצמן בדיוק על הציר הזה.

שאלות נפוצות