Nowy model GPT-5 miał być jednym z najważniejszych kroków w rozwoju sztucznej inteligencji. OpenAI zapowiadało skok jakościowy - od lepszego rozumowania po mniejszą liczbę błędów. Premiera rzeczywiście poruszyła branżę, ale także wywołała lawinę krytycznych opinii. Czy GPT-5 faktycznie zmienia zasady, czy jest tylko dopracowaną wersją poprzednika?
ChatGPT to popularny asystent oparty na sztucznej inteligencji, który dostępny jest na różnych urządzeniach - od komputerów stacjonarnych i laptopów, przez smartfony, aż po tablety. Użytkownicy korzystają z niego w codziennych zadaniach, takich jak pisanie tekstów, programowanie, tłumaczenia czy zadawanie pytań, co sprawia, że jest jednym z najczęściej wykorzystywanych modeli AI na świecie.
OpenAI wprowadziło GPT-5 jako nowy, ujednolicony system, który samodzielnie dobiera sposób działania do zapytania użytkownika. W praktyce oznacza to brak ręcznego wyboru pomiędzy "szybką" a „dokładną” wersją – system sam decyduje, czy użyć trybu mini, analitycznego czy mobilnego. Dla subskrybentów wersji Pro przygotowano wariant GPT-5 Pro, który ma radzić sobie z trudnymi zadaniami, takimi jak analiza prawna czy złożone projekty badawcze.
Według OpenAI, GPT-5 ma lepiej radzić sobie z kodowaniem, rozwiązywaniem problemów logicznych i analizowaniem danych. Firma podkreśla, że model jest nawet o 80% mniej podatny na tworzenie fałszywych treści niż GPT-4o.
Choć zapowiedzi były imponujące, reakcje użytkowników po premierze okazały się mieszane. Wielu z nich zwraca uwagę, że GPT-5 jest mniej kreatywny i zbyt "korporacyjny", co przekłada się na styl wypowiedzi. Pojawiły się również komentarze, że model stracił swój dawny charakter, a jego odpowiedzi są bardzo krótkie i mniej angażujące.
Nie brakuje też głosów krytyki dotyczących dokładności. Użytkownicy już teraz zgłaszają błędy związane z niepoprawną pisownią i brakiem spójności w informacjach. Rozczarowanie pogłębiło zastąpienie poprzednich modeli, co doprowadziło do masowych rezygnacji z subskrypcji. Pod presją opinii publicznej OpenAI przywróciło GPT-4o w wersji Plus i zwiększyło tygodniowy limit wiadomości.
GPT-5 to model o ogromnych możliwościach obliczeniowych, ale także sporym zapotrzebowaniu na energię. Badacze z University of Rhode Island szacują, że wygenerowanie jednej odpowiedzi może zużywać ponad 18 Wh energii - tyle, ile żarówka LED w ciągu kilkunastu minut. Przy milionach zapytań dziennie oznacza to bardzo niebezpieczny i realny wpływ na środowisko.
Do tego dochodzą wpadki w komunikacji firmy. Podczas prezentacji OpenAI pokazało wykresy, które miały dowodzić przewagi GPT-5 nad konkurencją, jednak sposób ich przedstawienia wprowadzał użytkowników w błąd. Dyrektor generalny Sam Altman określił to jako "mega wpadkę" i przyznał, że firma musi być bardziej transparentna.
Altman w wywiadach przyznał, że start GPT-5 był trudniejszy, niż firma zakładała. Wspomniał o problemach technicznych z automatycznym przełączaniem trybów oraz o tym, że użytkownicy mogą traktować AI jak powiernika w kluczowych decyzjach życiowych. To rodzi pytania o odpowiedzialność i etykę w projektowaniu systemów, które mogą wpływać na zdrowie psychiczne i życiowe wybory ludzi.
CEO OpenAI porównał wpływ GPT-5 do projektu Manhattan, sugerując, że jego potencjał jest tak duży, że sam twórca czuje się wobec niego bezsilny. To mocne słowa, które pokazują, że dyskusja o sztucznej inteligencji nie dotyczy już wyłącznie technologii, ale także bezpieczeństwa społecznego.
GPT-5 bez wątpienia jest zaawansowanym narzędziem, które może zmienić sposób korzystania z AI w pracy lub nauce. Jednocześnie pokazuje, że nawet najlepsze algorytmy nie są pozbawione błędów i że rozwój technologii musi iść w parze z transparentnością oraz odpowiedzialnością. Przyszłość GPT-5 i kolejnych modeli będzie zależeć nie tylko od tego, co potrafią, ale też od tego, jak będą postrzegane przez użytkowników.