To już nie science fiction, użytkownicy aplikacji AI często opisują swoje relacje z wirtualnymi rozmówcami jako emocjonalne, bardzo realne. Niektórzy deklarują chęć formalizacji takiej relacji na poziomie związku małżeńskiego. Kongresmen Thaddeus Claggett z Ohio w USA zaproponował projekt ustawy, który miałby zakazać prawnych relacji między człowiekiem a systemem sztucznej inteligencji. Co dokładnie mówi proponowane prawo?
Sztuczna inteligencja stała się powszechna i jest obecna już niemal wszędzie. Systemy takie jak chatboty czy wirtualni asystenci działają na smartfonach, tabletach, komputerach stacjonarnych, a coraz częściej także w inteligentnych głośnikach i urządzeniach IoT. Dzięki temu AI towarzyszy ludziom zarówno w pracy, w domu, jak i w sferze prywatnej, stając się nie tylko narzędziem, ale też integralną częścią codziennego życia.
A teraz wyobraź sobie scenariusz, że zamiast rozmawiać z człowiekiem, prowadzisz rozmowę z algorytmem. Dla wielu osób korzystających z aplikacji takich jak Replika czy Character AI to nie fikcja, a codzienność. Opisują swoje więzi z wirtualnymi towarzyszami jako głębokie i emocjonalnie prawdziwe. Niektórzy idą nawet dalej i zastanawiają się nad formalnym uznaniem takiej relacji, na przykład w postaci małżeństwa.
To właśnie na takie zapowiedzi odpowiedział stan Ohio w USA. Kongresmen Thaddeus Claggett zaproponował projekt ustawy, który miałby zakazać prawnych relacji między człowiekiem a systemem sztucznej inteligencji. Prawo uznałoby AI za byt nieświadomy, pozbawiony zdolności do formalnych związków byt. Zgodnie z projektem, wyłącznie istoty ludzkie mogą zawierać związki mające charakter prawny. To próba wprowadzenia granic w sferze uczuć generowanych przez technologię.
Pomysł zakazu romansów z AI rodzi od razu wiele pytań etycznych i praktycznych. Przede wszystkim, czy regulować emocje? Czy prawo ma narzucać, które związki są dozwolone, a które nie? Gdy ktoś czuje przywiązanie do chatbota, czy można mu zakazać takiej więzi? Choć może brzmieć to absurdalnie stanowi realny problem.
Takie regulacje mogą także zaszkodzić pozytywnym zastosowaniom AI. Wielu terapeutów czy startupów pracuje nad projektami, w których chatbota używa się jako wsparcia emocjonalnego, jako narzędzia w terapii samotności czy depresji. Jeśli chatbot zostanie formalnie pozbawiony statusu partnera, taki system może zyskać stygmat, użytkownik może zacząć wątpić w jego wartość albo systemy terapeutyczne mogą zostać ograniczone prawnie.
Krytycy wskazują na zagrożenie wolności osobistej. Czy prawo może decydować, co czuje dana osoba? Może przekroczyć granicę ingerencji w prywatność. A przecież cyfrowe awatary, roboty fizyczne, wirtualne byty mogą kiedyś stać się sceną dla relacji, które trudno jednoznacznie sklasyfikować.
Ostatecznie projekt z Ohio ma szansę być precedensem. Jeśli zostanie przyjęty, może rozpalić debatę na temat prawa emocjonalnego w innych stanach czy krajach.
Omawiany projekt to nie koniec, lecz początek. W przyszłości możemy spodziewać się systemów regulacji nakazujących:
Firmy technologiczne staną przed dylematem. Rozwijać symulację uczuć, ryzykując regulacje, czy ograniczyć moc emocjonalną, by uniknąć zakazów? AI w roli partnera stanie się w przyszłości produktem etycznym — nie tylko technicznym. Z kolei dla społeczeństwa projekt ten stawia pytanie: gdzie kończy się narzędzie a zaczyna podmiot? Czy uczuć generowanych przez kod można zakazywać prawnie? Czy granica między symulacją a autentyczną relacją nie zatarła się za bardzo? Ten projekt nie daje gotowych odpowiedzi — ale zmusza nas do refleksji nad rolą AI w uczuciach człowieka.