Microsoft w ostatnich tygodniach niemal podwoił wartość swoich umów na wynajem mocy obliczeniowej dla infrastruktury neocloud. Łączna wartość kontraktów przekroczyła już 60 mld USD, z czego aż 23 mld przypadło na jednego partnera – Nscale. Tempo inwestycji pokazuje, jak dramatycznie rośnie zapotrzebowanie giganta na zasoby GPU dla rozwoju generatywnej sztucznej inteligencji.
Microsoft rozkręca neocloud na skalę przemysłową
Według informacji opublikowanych przez Bloomberg, w ciągu zaledwie kilku tygodni Microsoft zwiększył swoje zobowiązania inwestycyjne w sektorze neocloud z 33 mld USD do ponad 60 mld USD. Wśród partnerów dostarczających moc obliczeniową dla chmurowych klastrów AI znalazły się m.in. Nscale, Nebius Group, Lambda, Iren oraz CoreWeave.
Największym beneficjentem nowych kontraktów został Nscale, który podpisał z Microsoftem szereg umów o łącznej wartości około 23 mld USD. Obejmuje to m.in. 14 mld USD na infrastrukturę w centrum danych w Teksasie oraz 6,2 mld USD w Norwegii. Dodatkowe projekty realizowane są w Wielkiej Brytanii i Portugalii.
W samym listopadzie 2025 r. Microsoft podpisał kolejne porozumienia, m.in. kontrakt o wartości 9,7 mld USD z włosko-francuskim koncernem energetycznym Iren oraz rozszerzoną umowę z Lambda Labs, dotyczącą dzierżawy dużych klastrów GPU.
Moc obliczeniowa jest, ale brakuje energii
Choć Microsoft konsekwentnie rozbudowuje swoje zasoby AI, problemem staje się już nie brak chipów, lecz dostęp do energii i gotowych obiektów centrów danych. Jak przyznał prezes Satya Nadella, firma posiada dziś „więcej układów GPU, niż jest w stanie podłączyć do zasilania”.
„Największym problemem nie jest dziś brak mocy obliczeniowej, ale brak prądu. jeżeli nie możemy uruchomić nowych instalacji wystarczająco blisko źródeł energii, część chipów po prostu czeka w magazynach” – powiedział Nadella.
Według danych finansowych za ostatni kwartał Microsoft wydał 11,1 mld USD na same umowy leasingowe dotyczące centrów danych. Tak gwałtowny wzrost nakładów odzwierciedla presję, z jaką mierzą się globalne chmury, próbując sprostać popytowi generowanemu przez modele językowe nowej generacji, w tym Copilot, ChatGPT oraz narzędzia oparte na architekturze OpenAI.









