
קרדיט תמונה: Zirat AI / AI
האם בועת ה-AI מתנפחת? ההון נשפך, החשמל חסר
שיאי השקעות בונים קיבולת מחשוב עולמית בקצב מסחרר, אך הזמנות אמיתיות עדיין נשענות על אימוץ איטי של עסקים ועל צווארי בקבוק של תשתיות חשמל וקירור. לפי הדיווח, קונסורציום בנקים מימן קמפוס דטה-סנטרים ב-18 מיליארד דולר, Oracle חתמה על התחייבויות ענק של 300 מיליארד דולר ל-OpenAI ותוכניות Stargate ו-Hyperion מציבות רף של מאות מיליארדים נוספים.
כפי שפורסם ב TechCrunch על ידי Russell Brandom היום.
הוויכוח על "בועת ה-AI" נוטה להישמע אפוקליפטי, אך הכלכלה מלמדת שבועה היא בעיקר פער תזמון בין היצע לביקוש. ב-AI הפער הזה קיצוני: תוכנה רצה קדימה במהירות, בעוד דטה-סנטרים, רשתות הולכה ותחנות כוח נבנים בשנים. כשמחזור ההשקעות קצר מהזמן הנדרש להביא חשמל וקירור לקומפלקס של מאות מגוואט, גם הימור טוב עלול להפוך לעודף יקר.
המספרים ש-TechCrunch מציג מטלטלים. לפי דיווחי רויטרס, קמפוס דטה-סנטרים בניו מקסיקו המקושר ל-Oracle גייס קווי אשראי של עד 18 מיליארד דולר. Oracle כבר התקשרה לכ-300 מיליארד דולר בשירותי ענן עבור OpenAI, ובמסגרת פרויקט Stargate עם SoftBank מתוכננת השקעה כוללת של כ-500 מיליארד דולר. Meta מצידה הצהירה על 600 מיליארד דולר לתשתיות בשלוש השנים הקרובות. זאת ריצת חימוש של הון, ציוד וכוח אדם, ששאלת הביקוש העתידי שלה עדיין פתוחה.
כאן נכנסת חוסר הוודאות: סקר מקינזי שצוטט מראה שכמעט כל הארגונים מנסים AI, אך רק מעטים פרסו אותו בהיקף המשנה את העסק. התועלות בינתיים נקודתיות: קיצור זמנים, הורדת עלויות במחלקות ספציפיות, ולא מהפכה רוחבית. אם התזה העסקית מבוססת על מילוי מיידי של קיבולת GPU במחירים גבוהים, כל דחייה בהטמעה ארגונית פוגעת בתחזית הכנסות וב-IRR של פרויקטי בנייה.
וגם כאשר הביקוש האולטימטיבי חזק, התשתית מעכבת. מנכ"ל Microsoft, סאטיה נאדלה, תיאר את צוואר הבקבוק כ"אין לי warm shells לחבר אליהם". כלומר, אפילו אם שבבים מגיעים, אין מספיק מבנים מחווטים, קירור, שנאים וקווי הולכה זמינים. דור ה-GPU הנוכחי דוחף להסבות מאסיביות לקירור נוזלי, לשדרוגי מתח ולניהול עומסי חום, בעוד שחלק מדטה-סנטרים קיימים מתקשים לעמוד בדרישות ההספק של הצ'יפים החדשים. ברקע, שרשראות אספקה רגישות כמו HBM לזיכרון עתיר רוחב פס ממשיכות להיות מגבלה פיזית.
המשמעות למשקיעים ולבונים: זהירות הנדסית ופיננסית. מודלים של Build-to-Suit עם שלבי הרחבה מודולריים, גידור סיכוני אנרגיה באמצעות PPAs ארוכי טווח וכניסה מוקדמת לתורי חיבור לרשת, יכולים לצמצם סיכוי לבועה מקומית. פיזור צי ה-GPU בין דורות ומוכנות ל-repurpose ל-inference או VDI עשויים לשמר תשואה במקרה שהשוק עובר מהר מאימון כבד לשימושים קלים וזולים יותר.
ומה בישראל? הפרויקטים בענן הממשלתי Nimbus זרקו עוגן לדרישת ענן מקומית, ויחד עם אזורי הענן של AWS, Google Cloud ו-Azure, קיבולת מחשוב מתקרבת יותר ללקוחות. אך כמו בארצות הברית ואירופה, צוואר הבקבוק המרכזי הוא חשמל: זמינות חיבורי מתח גבוה, קווי הולכה חדשים וזמני רישוי. מספר יוזמות דטה-סנטר במרכז הארץ כבר התכנסו למודלים מודולריים וקירור נוזלי כדי להקטין PUE ולחסוך מים, אך זמני חיבור לרשת והקצאות הספק נותרים האתגר שמכריע לוחות זמנים ועלויות. לחברות ישראליות המתכננות קפיצה ב-AI כדאי לשלב צריכת GPU בענן עם Colocation הדרגתי, ולנעול מחירי אנרגיה מראש.
הלקח הרחב: ב-AI אין בינאריות של הצלחה או כישלון. יש טווח תרחישים שבו גם ביקוש אמיתי יכול להתנגש במגבלות פיזיות של רשת, קרור וייצור שבבים. מאקרו נבון יכיר במהירות התקדמות התוכנה אך יתמחר את האיטיות הבלתי נמנעת של בטון, נחושת ואלומיניום. אם ההון יבנה קיבולת בקצב המתאם לצריכה ולתשתית, הבועה תתנפח פחות. אם לא, ההיסטוריה נוטה להעניש עודף היצע יקר שנבנה מהר מדי.
