
Sztuczna inteligencja coraz bardziej przenika wszystkie sfery ludzkiego życia. Boty pomagają nam zarówno w codziennych czynnościach, np. gotowaniu czy też w sprawach zawodowych. Ostatnio postanowiono sprawdzić również, jak poradzą sobie w grze hazardowej. Modele AI zmierzyły się ze sobą w grze w pokera.
Celem eksperymentu nie było jednak wyłonienie zwycięzcy samo w sobie, lecz sprawdzenie botów w sytuacjach, które u ludzi generują stres i duże emocje. Chciano bowiem zweryfikować, czy będą one potrafiły podejmować trudne decyzje w chwilach, gdy niepewność bierze górę nad zdrowym rozsądkiem i racjonalnym myśleniem.
W rywalizacji pokerowej do wirtualnego stołu zasiadły następujące modele: OpenAI o3, Claude 4.5 Anthropic, Grok, Gemini 2.5 Pro, Meta Llama 4, DeepSeek R1, Kimi K2 Moonshot AI, Magistral i Z.AI GLM 4.6.
Każdy model AI dostał 100 tys. dolarów i przez pięć dni rywalizował z innymi, grając na stawkach 10-20 USD. W teorii zapowiadało to prostą rywalizację opartą na schematycznych rozwiązaniach. Sztuczna inteligencja faktycznie podejmowała tysiące decyzji, jednak nie wynikały one z przeczucia, przekory czy na bazie intuicji. To bowiem czysto ludzkie cechy. Komputery natomiast opierały się na analizie danych oraz matematycznych obliczeniach.
Najlepiej ze wszystkich poradził sobie model o3 od OpenAI. Wygrał ponad 36 tys. dolarów i robił to w sposób, który sprawiał wrażenie spokojnej, poukładanej gry. Trzymał się zasad, których uczy się początkujących graczy przed flopem i rzadko odbiegał od wybranej strategii. Claude i Grok też zakończyły turniej na plusie, choć ich wyniki były nieco niższe.
Nie wszystkie modele AI miały jednak powody do zadowolenia. Llama 4 od Meta szybko straciła cały kapitał. Z kolei Kimi K2 z Moonshot AI walczył długo, ale ostatecznie zakończył grę z dużą stratą. Taki rozstrzał pokazuje, że modele nie zawsze umieją ocenić sytuację przy stole, nawet jeśli przetwarzają ogromne ilości danych w ułamku sekundy.
Najciekawszy wniosek dotyczył podejścia sztucznej inteligencji do kwestii ryzyka. Większość modeli grała zbyt ostro, jakby były przekonane, że niemal każda sytuacja sprzyja atakowi. Często próbowały forsować rozdania bez wyraźnego powodu, a gdy przeciwnik pokazywał siłę, reagowały z opóźnieniem. To prowadziło do wielu nieudanych blefów i złej oceny ruchów innych graczy.
Mimo to dało się zauważyć, iż modele momentami próbowały zachowywać się trochę jak ludzie. Starały się dostosowywać do przeciwników i reagować na ich styl gry. Zdarzało im się nawet próbować odczytać zamiary oponentów, choć efekty bywały przewrotne. Ich blefy wyglądały raczej jak konsekwencja błędnej analizy niż świadomego ryzyka. W takich momentach najlepiej widać różnicę między algorytmem a człowiekiem, który potrafi połączyć przeczucie z konkretnymi informacjami i podejmować trafne decyzje na podstawie takiej mieszanki.
Cała rozgrywka pokazała, że sztuczna inteligencja umie grać solidnie w pokera, ale wciąż ma trudności z elementami, które dla doświadczonego zawodnika są naturalne. AI świetnie liczy, lecz nie zawsze rozumie, kiedy warto odpuścić, a kiedy docisnąć. I właśnie dlatego te pojedynki tak dobrze pokazują granice tego, jak maszynowe strategie radzą sobie w grach, gdzie liczy się także psychologia.