OpenAI planuje rewolucję w mocy obliczeniowej. Altman zapowiada ponad milion GPU do końca 2025 roku

itreseller.com.pl 4 dni temu

OpenAI przyspiesza wyścig zbrojeń na rynku sztucznej inteligencji. Do końca bieżącego roku firma ma używać ponad miliona GPU, a Altman zapowiada, iż to dopiero początek i planuje podniesienie tej liczby stukrotnie.

Milion GPU – skok na niespotykaną skalę

Sam Altman ogłosił na platformie X, iż do końca 2025 roku OpenAI przekroczy próg miliona uruchomionych układów GPU. Dla porównania, xAI Elona Muska zwróciło w tym roku uwagę rynku, kiedy ujawniono, iż model Grok 4 działa na około 200 tysiącach NVIDIA H100. Oznacza to, iż OpenAI zamierza dysponować mocą obliczeniową pięć razy większą niż obecny lider segmentu modeli generatywnych. Sam Altman nie kryje ambicji.

“Jestem bardzo dumny z zespołu, ale teraz powinni zacząć myśleć, jak podnieść tę liczbę stukrotnie” – napisał na X Altman.

Jeszcze na początku roku Altman przyznał, iż OpenAI musiało spowolnić premierę modelu GPT-4.5 ze względu na brak wystarczających zasobów GPU. Deficyt najnowszych układów NVIDIA, które już dziś są wyprzedane na wiele miesięcy naprzód, stał się sygnałem ostrzegawczym nie tylko dla OpenAI, ale dla całej branży. Od tamtej pory Altman uczynił skalowanie infrastruktury obliczeniowej jednym z najważniejszych celów rozwoju firmy.

Rynkowa batalia o chipy i nowe strategie OpenAI

Obecne ceny rynkowe pokazują, iż koszt miliona GPU to wydatek liczony w setkach miliardów dolarów, natomiast realizacja wizji stu milionów takich układów oznaczałaby wydatki rzędu 3 bilionów dolarów. W praktyce produkcja takiej ilości chipów przez NVIDIA czy inne firmy nie jest możliwa w krótkim terminie, a wyzwaniem pozostaje także zasilenie i schłodzenie ogromnych farm obliczeniowych.

OpenAI, choć wciąż korzysta głównie z chmury Microsoft Azure, od miesięcy rozwija współpracę z Oracle w zakresie budowy własnych centrów danych. Według doniesień, firma testuje także układy TPU firmy Google, by zdywersyfikować źródła mocy obliczeniowej. W tle trwa bezprecedensowa rywalizacja na rynku półprzewodników – Meta, Amazon i inni giganci inwestują w autorskie układy AI i szybkie pamięci HBM, które umożliwiają trenowanie coraz większych modeli.

Idź do oryginalnego materiału