TPU Ironwood od Google będzie dostępny poza infrastrukturą giganta z Mountain View

itreseller.com.pl 13 godzin temu

Google zmienia swoją strategię dotyczącą sztucznej inteligencji. Po latach wykorzystywania swoich układów TPU wyłącznie we własnych usługach, firma zaczyna udostępniać je zewnętrznym dostawcom chmur obliczeniowych. Pierwszym partnerem ma być londyński Fluidstack, który wdroży układy w nowojorskim centrum danych.

Google otwiera TPU na zewnętrzne rynki

Według doniesień serwisu The Information, Google rozpoczęło rozmowy z kilkoma dostawcami tzw. „neocloudów”, w tym z Crusoe i CoreWeave, aby udostępniać im swoje procesory Tensor Processing Unit. Dotąd TPU, rozwijane od 2016 roku, były domeną wyłącznie Google Cloud i projektów wewnętrznych giganta.

Pierwszym podmiotem, który ma już podpisać umowę, jest Fluidstack, brytyjska firma specjalizująca się w infrastrukturze AI. Jej centrum danych w Nowym Jorku, dzierżawione od operatora Terawulf, zostanie wyposażone w najnowsze chipy Ironwood. Google, aby zabezpieczyć projekt, zaoferowało 3,2 mld USD gwarancji finansowych i objęło około 14% udziałów w Fluidstack.

Ironwood TPU, czyli najnowsza generacja układów AI

Premiera Ironwood TPU odbyła się w kwietniu 2025. To układ znacząco przewyższający swojego poprzednika, Trillium TPU. Oferuje 192 GB pamięci HBM o przepustowości 7,4 Tb/s na chip, co oznacza sześciokrotny wzrost względem poprzedniej generacji. Do tego dochodzi 1,2 Tb/s dwukierunkowej łączności Inter-Chip Interconnect, zapewniającej o 50% lepsze wyniki w komunikacji między układami.

Google stara się w ten sposób zwiększyć konkurencyjność wobec gigantów takich jak Nvidia, AMD czy Intel, a także wobec rywali chmurowych, czyli Amazona i Microsoftu. O ile ci ostatni rozwijają własne akceleratory AI, to na razie udostępniają je wyłącznie w ramach własnych środowisk obliczeniowych.

Konkurencja i rynek infrastruktury AI

Decyzja Google może mieć daleko idące skutki dla rynku infrastruktury AI. Dotąd dominowały na nim karty Nvidia H100 i B200, których dostępność jest ograniczona, a ceny wysokie. TPU od Google mogą stanowić alternatywę, szczególnie dla mniejszych dostawców usług chmurowych, którzy chcą konkurować ceną i wydajnością.

Warto dodać, iż według wcześniejszych doniesień CoreWeave już w czerwcu 2025 rozpoczęło udostępnianie mocy obliczeniowej na rzecz Google Cloud w ramach współpracy z OpenAI. W lipcu media informowały, iż w ramach tej umowy OpenAI miałby korzystać właśnie z TPU Google.

Obecnie z układów TPU korzystają m.in. Apple, Anthropic oraz Safe Superintelligence. Rozszerzenie dostępu na rynek chmurowy może więc umocnić pozycję Google w walce o dominację w infrastrukturze AI, w której najważniejsze znaczenie mają dostępność i koszt mocy obliczeniowej.

Idź do oryginalnego materiału