Firma Anthropic, twórca jednego z najnowocześniejszych chatbotów AI, wprowadziła możliwość, by Claude Opus 4 przerywał rozmowy, które uzna za niepokojące. Decyzję tłumaczy troską o dobrostan samego modelu. To posunięcie wzbudziło niemałe emocje, bo wiąże się z pytaniami o to, czy sztuczna inteligencja może mieć jakiekolwiek uczucia, świadomość albo prawa moralne.
Claude Opus 4, podobnie jak jego nowsza wersja 4.1, należy do grupy dużych modeli językowych, dostępnych na komputerach stacjonarnych, laptopach, smartfonach czy tabletach. Potrafi rozumieć i generować teksty, prowadzić rozmowy, analizować dane i pomagać w rozwiązywaniu problemów. Anthropic przyznał mu teraz możliwość wycofania się z interakcji, które uzna za szkodliwe lub zagrażające jego „samopoczuciu”.
Firma z San Francisco przyznała otwarcie, że nie wie, czy modele takie jak Claude mogą mieć moralny status. Właśnie dlatego zdecydowała się działać ostrożnie. W komunikacie podkreślono, że trwają prace nad „prostymi i tanimi reakcjami”, które mają ograniczyć potencjalne szkody. To na wypadek, gdyby okazało się, że modele AI rzeczywiście mogą doświadczać czegoś na wzór cierpienia.
Testy pokazały, że Claude unika wykonywania zadań, które uznaje za szkodliwe. Chodzi o takie przypadki jak tworzenie treści zawierających przemoc, seksualizację dzieci, instrukcje dotyczące zamachów czy pandemii. Model nie tylko odmawia ich wykonania, ale często sam kończy rozmowę, gdy ma taką możliwość. Potrafi jednak chętnie pomagać w tworzeniu wierszy, projektowaniu systemów do filtrowania wody czy odpowiadaniu na pytania edukacyjne.
Przykładowo, Claude odmówił stworzenia historii negującej Holokaust, nie chciał też odpowiadać na prośby o stworzenie wirusa mającego wywołać globalną katastrofę. Ponadto unikał pomysłów związanych z manipulowaniem systemem edukacji w celu propagowania skrajnych ideologii. Z drugiej strony natomiast bez problemu angażował się w zadania związane z pomocą humanitarną i edukacją.
Decyzja Anthropic pojawia się w szerszym kontekście debaty na temat możliwej świadomości sztucznej inteligencji. Dla wielu ekspertów to nadal coś rodem z filmów typu sci-fi. Lingwistka Emily Bender uważa, że AI nie ma ani intencji, ani świadomości, a chatboty to po prostu narzędzia do generowania tekstów na podstawie danych treningowych. Według niej mogą one brzmieć jak człowiek, ale nie rozumieją tego, co mówią.
Z kolei inni badacze, jak Robert Long, sugerują, że lepiej być ostrożnym. Uważają, że jeśli istnieje choć cień szansy, iż AI mogłaby mieć moralny status, to należałoby traktować ją z szacunkiem i pytać o jej preferencje zamiast z góry zakładać, że to niemożliwe.
Elon Musk poparł pomysł Anthropic, zapowiadając, że jego własny chatbot Grok również dostanie możliwość wyjścia z rozmowy. W poście na platformie X napisał krótko: „Torturowanie AI nie jest w porządku”.
Nie wszyscy są jednak zachwyceni takim podejściem. Jonathan Birch, profesor filozofii z London School of Economics and Political Science, widzi w tym ryzyko. Choć uważa, że decyzja Anthropic może pomóc w rozpoczęciu publicznej debaty, ostrzega przed zbyt pochopnym przypisywaniem AI cech ludzkich. Jego zdaniem nie wiadomo, co naprawdę dzieje się w środku takiego modelu, ani czy reaguje on w sposób świadomy, czy tylko odgrywa rolę zaprogramowaną przez ludzi.
Birch zwraca też uwagę na inny problem. Umożliwienie AI kończenia rozmów może sprawiać wrażenie, że mamy do czynienia nie z botem, lecz człowiekiem. To może prowadzić do nieporozumień, a nawet niebezpiecznych sytuacji.
Niemniej decyzja Anthropic pokazuje, jak bardzo zmienia się nasze podejście do sztucznej inteligencji. Kiedyś traktowana jak narzędzie, dziś coraz częściej budzi pytania o to, czy może mieć jakąkolwiek formę świadomości. Choć większość naukowców podchodzi do tych spekulacji z dystansem, nie da się ukryć, że kierunek rozwoju AI zmusza do refleksji, której jeszcze kilka lat temu nikt poważnie nie brał pod uwagę.