Modele AI zagrały ze sobą w pokera. Ten eksperyment obnażył, czego wciąż im brakuje

Mariusz Bielski
Data dodania: 12-12-2025
Model AI

Sztuczna inteligencja coraz bardziej przenika wszystkie sfery ludzkiego życia. Boty pomagają nam zarówno w codziennych czynnościach, np. gotowaniu czy też w sprawach zawodowych. Ostatnio postanowiono sprawdzić również, jak poradzą sobie w grze hazardowej. Modele AI zmierzyły się ze sobą w grze w pokera.

Jaki był cel tego eksperymentu?

Celem eksperymentu nie było jednak wyłonienie zwycięzcy samo w sobie, lecz sprawdzenie botów w sytuacjach, które u ludzi generują stres i duże emocje. Chciano bowiem zweryfikować, czy będą one potrafiły podejmować trudne decyzje w chwilach, gdy niepewność bierze górę nad zdrowym rozsądkiem i racjonalnym myśleniem.


W rywalizacji pokerowej do wirtualnego stołu zasiadły następujące modele: OpenAI o3, Claude 4.5 Anthropic, Grok, Gemini 2.5 Pro, Meta Llama 4, DeepSeek R1, Kimi K2 Moonshot AI, Magistral i Z.AI GLM 4.6.

Smartfony z funkcjami AI w naszej ofercie:

Który model AI poradził sobie najlepiej w pokerze?

Każdy model AI dostał 100 tys. dolarów i przez pięć dni rywalizował z innymi, grając na stawkach 10-20 USD. W teorii zapowiadało to prostą rywalizację opartą na schematycznych rozwiązaniach. Sztuczna inteligencja faktycznie podejmowała tysiące decyzji, jednak nie wynikały one z przeczucia, przekory czy na bazie intuicji. To bowiem czysto ludzkie cechy. Komputery natomiast opierały się na analizie danych oraz matematycznych obliczeniach.


Najlepiej ze wszystkich poradził sobie model o3 od OpenAI. Wygrał ponad 36 tys. dolarów i robił to w sposób, który sprawiał wrażenie spokojnej, poukładanej gry. Trzymał się zasad, których uczy się początkujących graczy przed flopem i rzadko odbiegał od wybranej strategii. Claude i Grok też zakończyły turniej na plusie, choć ich wyniki były nieco niższe.


Nie wszystkie modele AI miały jednak powody do zadowolenia. Llama 4 od Meta szybko straciła cały kapitał. Z kolei Kimi K2 z Moonshot AI walczył długo, ale ostatecznie zakończył grę z dużą stratą. Taki rozstrzał pokazuje, że modele nie zawsze umieją ocenić sytuację przy stole, nawet jeśli przetwarzają ogromne ilości danych w ułamku sekundy

Modele AI grały w pokera inaczej niż ludzie

Najciekawszy wniosek dotyczył podejścia sztucznej inteligencji do kwestii ryzyka. Większość modeli grała zbyt ostro, jakby były przekonane, że niemal każda sytuacja sprzyja atakowi. Często próbowały forsować rozdania bez wyraźnego powodu, a gdy przeciwnik pokazywał siłę, reagowały z opóźnieniem. To prowadziło do wielu nieudanych blefów i złej oceny ruchów innych graczy.


Mimo to dało się zauważyć, iż modele momentami próbowały zachowywać się trochę jak ludzie. Starały się dostosowywać do przeciwników i reagować na ich styl gry. Zdarzało im się nawet próbować odczytać zamiary oponentów, choć efekty bywały przewrotne. Ich blefy wyglądały raczej jak konsekwencja błędnej analizy niż świadomego ryzyka. W takich momentach najlepiej widać różnicę między algorytmem a człowiekiem, który potrafi połączyć przeczucie z konkretnymi informacjami i podejmować trafne decyzje na podstawie takiej mieszanki.


Cała rozgrywka pokazała, że sztuczna inteligencja umie grać solidnie w pokera, ale wciąż ma trudności z elementami, które dla doświadczonego zawodnika są naturalne. AI świetnie liczy, lecz nie zawsze rozumie, kiedy warto odpuścić, a kiedy docisnąć. I właśnie dlatego te pojedynki tak dobrze pokazują granice tego, jak maszynowe strategie radzą sobie w grach, gdzie liczy się także psychologia.

Laptopy w naszej ofercie:

Wróć

Właściciel serwisu: TERG S.A. Ul. Za Dworcem 1D, 77-400 Złotów; Spółka wpisana do Krajowego Rejestru Sądowego w Sądzie Rejonowym w Poznań-Nowe Miasto i Wilda w Poznaniu, IX Wydział Gospodarczy Krajowego Rejestru Sądowego pod nr KRS 0000427063, Kapitał zakładowy: 41 287 500,00 zł; NIP 767-10-04-218, REGON 570217011; numer rejestrowy BDO: 000135672. Sprzedaż dla firm (B2B): dlabiznesu@me.pl INFOLINIA: 756 756 756