Podczas pierwszej edycji konferencji LlamaCon, która odbyła się we wtorek w siedzibie Meta w Menlo Park, firma zaprezentowała nowy zestaw narzędzi dla twórców rozwiązań AI opartych na modelach Llama. Wydarzenie miało charakter międzynarodowy, a głównym celem Meta jest zwiększenie adopcji własnych otwartych modeli AI i wzmocnienie pozycji wobec dostawców zamkniętych rozwiązań, takich jak OpenAI.
Llama API i nowe modele: więcej kontroli dla programistów
Meta uruchomiła wersję preview Llama API — narzędzia umożliwiającego łatwe podłączenie do modeli Llama 4 (Scout i Maverick) w chmurze, z jednym kluczem API i wsparciem dla SDK w Pythonie i TypeScript. API obsługuje także konwersję aplikacji opartych na OpenAI SDK. Firma zapowiedziała również możliwość dostrajania modeli przy użyciu Llama 3.3 8B oraz udostępniania własnych modeli na dowolnej infrastrukturze.
Llama API ma na celu uproszczenie pracy deweloperów i zwiększenie kontroli nad modelami bez uzależnienia od zewnętrznych dostawców chmurowych. Nowe modele można testować z użyciem usług Cerebras i Groq, co pozwala osiągać szybszy inference i prototypować bezpośrednio w środowisku Meta.
Partnerstwa, granty i bezpieczeństwo open source
Meta ogłosiła nowe integracje Llama Stack z IBM, Red Hat, Dell Technologies i NVIDIA NeMo. Jednocześnie firma zaprezentowała zestaw narzędzi ochronnych open source: Llama Guard 4, LlamaFirewall, Llama Prompt Guard 2 oraz CyberSecEval 4. Powstał również program Llama Defenders, który umożliwia wybranym partnerom weryfikację odporności swoich systemów.
W ramach programu Llama Impact Grants Meta przyznała 1,5 mln dolarów dziesięciu zespołom z całego świata, m.in. z USA, Wielkiej Brytanii i Afryki. Wśród beneficjentów znalazły się projekty związane z dostępem do usług publicznych, wsparciem aptek oraz narzędziami edukacyjnymi offline.
Rywalizacja z OpenAI i rozmowa z Microsoftem
Podczas wystąpienia na scenie Mark Zuckerberg przyznał, iż celem Meta jest budowa silnego ekosystemu open source, który daje deweloperom elastyczność w łączeniu różnych modeli. Wskazał, iż otwarte podejście może przewyższyć zamknięte modele, ponieważ pozwala wykorzystywać najlepsze komponenty z różnych źródeł, np. DeepSeek czy Qwen.
W trakcie rozmowy z CEO Microsoftu Satyą Nadellą padło stwierdzenie, iż 20–30% kodu w repozytoriach Microsoftu generowane jest już przez AI. Nadella dodał, iż postęp w tym zakresie różni się w zależności od języka: największy jest w Pythonie, najmniejszy w C++. Meta nie podała porównywalnych danych, ale rozmowa potwierdziła, iż AI zaczyna odgrywać znaczącą rolę nie tylko w produktach końcowych, ale też w samym procesie ich tworzenia. Co więcej, CTO Microsoftu Kevin Scott wcześniej prognozował, iż do 2030 roku aż 95% kodu będzie generowane przez AI.