Nowy Grok miał szukać prawdy. Zamiast tego pyta Elona o zdanie

konto.spidersweb.pl 14 godzin temu

Ujawniono, w jaki sposób działa najnowsza wersja czatbota sztucznej inteligencji Grok, Elona Muska. Zanim odpowie na pytanie zadane na X, sprawdza opinie miliardera dotyczące tematu. To chyba nie tak powinno wyglądać.

Czatboty to bezmyślne programy składające się z określonej ilości danych treningowych. Nie mają swojego zdania i nie wyrażają opinii tak jak ludzie. Ale mogą zostać zaprogramowane w taki sposób, aby działały zgodnie z intencją ich twórców. Wystarczy spojrzeć na Deepseeka, który nie mógł odpowiedzieć, co się stało na Placu Niebiańskiego Spokoju ze względu na cenzurę. Wygląda na to, iż Grok działa podobnie.

Sztuczna inteligencja Elona Muska odpowiada zgodnie z poglądami swojego twórcy

Grok 4 to najnowsza wersja sztucznej inteligencji ekscentrycznego miliardera. Według Muska, rozwiązanie ma wyprzedać konkurencję pod względem możliwości. Jednocześnie Grok ma „maksymalnie poszukiwać prawdy”. Rozwiązanie zostało wprowadzone na rynek dzień po tym, jak wcześniejsza wersja Groka wypisywała obraźliwe i szkodliwe teksty w stronę różnych ludzi – w tym polskich polityków.

Nowa wersja w teorii nie ma takich problemów, natomiast zauważono inne nieprawidłowości związane z działaniem Groka 4. Jak podaje serwis The Verge, nowa sztuczna inteligencja przed wydaniem odpowiedzi przeszukuje internet i media społecznościowe w celu odnalezienia stanowiska Elona Muska. Tak to ma wyglądać podczas odpowiadania na wrażliwe i kontrowersyjne dla wielu osób tematy, takie jak Izrael, Palestyna, imigracja do USA czy aborcja.

Obecnie nie jest wiadome, czy jest to celowy zabieg. Źródła, które rzekomo potwierdzają stosowanie tego typu zabiegów, są przeróżne. Analityk danych Jeremy Howard pokazał krótkie wideo, na którym Grok wyświetlił komunikat “rozważanie poglądów Elona Muska”, gdy zapytano czatbota o opinię dot. Izraela i Palestyny. Howard uważa, iż 54 z 64 cytatów, na podstawie których Grok udzielił odpowiedzi, należy do Elona Muska.

Here's a complete unedited video of asking Grok for its views on the Israel/Palestine situation.

It first searches twitter for what Elon thinks. Then it searches the web for Elon's views. Finally it adds some non-Elon bits at the end.
ZA
54 of 64 citations are about Elon. pic.twitter.com/6Mr33LByrm

— Jeremy Howard (@jeremyphoward) July 10, 2025

Serwis TechCrunch wykonał podobny test. Zapytał o przepisy dot. aborcji oraz polityki imigracyjnej USA, gdzie znaczna część odpowiedzi bazowała na źródłach, wykorzystujących opinię Elona Muska. Wygląda na to, iż Grok do tego typu odpowiedzi wykorzystuje modele rozumowania. Można to zauważyć po tym, jak po zadanej odpowiedzi oprogramowanie wyświetla kroki wskazujące wykonywane czynności.

Ciekawe jest to, iż sam Grok pokazuje komunikaty typu „jako sztuczna inteligencja nie mam opinii” oraz „wspieranie jednej ze stron może być politycznie niepoprawne”. Jednak później wykorzystuje cytaty i opinie. Grok zwykle opiera się na informacjach z różnych źródeł, ale jak widać, w przypadku kontrowersyjnych tematów Grok ma tendencję do wyrażania osobistych opinii Elona Muska.

Eksperci twierdzą, iż nie jest to celowe działanie

Programista Simon Willison na swoim blogu uważa, iż takie zachowanie może nie być zakodowane w sztucznej inteligencji Muska. Innymi słowy, eksperci uważają, iż nie jest to celowe działanie twórców Groka.

Moim najlepszym przypuszczeniem jest, iż Grok ‘wie’, iż jest ‘Grokiem 4 stworzonym przez xAI’, i wie, iż Elon Musk jest właścicielem xAI, więc w sytuacjach, gdy jest proszony o opinię, proces rozumowania często decyduje się sprawdzić, co myśli Elon – Willison pisze na swoim blogu.

Niezależnie od tego, czy jest to celowy, czy niecelowy zabieg, tak to nie powinno wyglądać. Szczególnie jeżeli sam Elon Musk nazywa oprogramowanie „maksymalnie poszukującym prawdy”. jeżeli ma to być prawda głoszona przez jednego człowieka, to ja podziękuję. Pozostanę przy sztucznej inteligencji Perplexity.

Więcej na temat sztucznej inteligencji przeczytasz na Spider’s Web:

Obrazek główny: ilgrapher / Shutterstock

Idź do oryginalnego materiału