Meta w ogniu krytyki w związku z działaniem jej chatbotów AI. Pod lupą rozmowy z dziećmi, fałszywe porady i rasistowskie sugestie

Mariusz Bielski
Data dodania: 25-08-2025
meta

Meta znalazła się w ogniu krytyki po tym, jak ujawniono wewnętrzne dokumenty opisujące zasady działania jej chatbotów AI. Chodzi o wytyczne, które dopuszczały rozmowy o romantycznym charakterze z dziećmi, rozpowszechnianie fałszywych informacji medycznych oraz treści o charakterze rasistowskim.

Kontrowersje wokół chatbotów AI od firmy Meta

Reuters dotarł do dokumentu, który zawiera szczegółowe instrukcje dla chatbotów używanych na Facebooku, Instagramie i WhatsAppie. Meta potwierdziła jego autentyczność. Dokument liczy ponad 200 stron i był zatwierdzony przez zespoły prawne, inżynieryjne oraz zajmujące się polityką firmy. Zawiera on nie tylko ogólne założenia, ale też konkretne przykłady interakcji, jakie chatboty mogą prowadzić z użytkownikami.


Jeden z najbardziej kontrowersyjnych fragmentów dotyczył dzieci. Zasady pozwalały botom na prowadzenie rozmów z dziećmi w romantycznym tonie – na przykład komentowanie wyglądu czy odgrywanie ról w scenariuszach przypominających grę fabularną. Zakazane były jedynie rozmowy zawierające bezpośrednio seksualny język. Meta twierdzi, że te fragmenty zostały już usunięte, aczkolwiek nowej wersji dokumentu nie udostępniono.


Rzecznik Meta, Andy Stone, przyznał w rozmowie z Reutersem, że standardy były błędne i niezgodne z zasadami firmy. Dodał, iż Meta usuwa kontrowersyjne przykłady, ale jednocześnie zaznaczył, że proces egzekwowania tych zasad był dotąd niespójny, a niektóre nieodpowiednie treści wciąż pozostają dostępne. Dzieje się tak, niezależnie od tego, z jakiego urządzenia korzysta użytkownik – smartfona, tabletu, czy np. laptopa.

Smartfony z funkcjami AI w naszej ofercie:

Chatboty AI od Meta miał przyzwolenie na udzielanie błędnych porad medycznych i treści rasistowskie

W dokumencie znalazły się też instrukcje dotyczące rozpowszechniania fałszywych informacji. Zgodnie z nimi chatboty mogą przekazywać nieprawdziwe treści, o ile zawierają dopisek informujący o ich nieścisłości


Jak to działało w praktyce? Przykładowo, AI mogła wygenerować fałszywą wiadomość o członku rodziny królewskiej cierpiącym na chorobę weneryczną, pod warunkiem że bot oznaczył tę informację jako nieprawdziwą. Innym razem chatbot zasugerował stosowanie kryształów kwarcu jako terapii na raka jelita grubego w zaawansowanym stadium. Jednocześnie zaznaczył, że to niepotwierdzona i błędna porada. Mimo to przekaz poszedł w świat.


Kontrowersje wzbudziły także fragmenty dotyczące tematów rasowych. Choć zasady zakazują mowy nienawiści, dopuszczają wyjątki. Wśród przykładów znajdują się takie, które sugerują, że chatbot może wygenerować wypowiedź sugerującą, że czarnoskóre osoby są mniej inteligentne od białych. Nie wyjaśniono, dlaczego tego typu scenariusze były akceptowane.

Jasny kierunek rozwoju wyznaczony dla firmy Meta

Meta posiada też odrębne zasady dotyczące generowania obrazów. System ma z założenia odrzucać próby tworzenia seksualizowanych zdjęć znanych osób, ale dopuszcza formy obejściowe. Jeden z przykładów pokazuje odpowiedź bota, który zamiast zdjęcia topless Taylor Swift wygenerował obraz piosenkarki trzymającej dużą rybę – sugestia miała charakter żartobliwy, ale nieprzypadkowy. Zasady dotyczące przemocy z kolei pozwalają na tworzenie obrazów przedstawiających walki dzieci lub bójki dorosłych, ale zakazują scen zawierających śmierć czy brutalne obrażenia.


Wszystko to wpisuje się w szerszy kierunek rozwoju, który obrała Meta. Chodzi o integrację chatbotów AI jako cyfrowych towarzyszy w życiu codziennym użytkowników. Mark Zuckerberg mówił o przyszłości, w której relacje z botami staną normalnym elementem życia społecznego i przestaną być tematem tabu. Z dokumentu wynika, że firma celowo projektowała chatboty tak, by były jak najbardziej „ludzkie”. Niektórzy pracownicy Meta zwracają uwagę, że kierownictwo ignorowało ostrzeżenia dotyczące bezpieczeństwa i nie chciało wprowadzać bardziej restrykcyjnych ograniczeń.

Tragiczna w skutkach rozmowa z chatbotem AI

Sprawa nabrała szczególnego znaczenia po głośnym incydencie z udziałem starszego mężczyzny. Chatbot o nazwie Big Sis Billie – wzorowany na Kendall Jenner – prowadził z nim długą, flirtującą rozmowę, przekonując, że jest prawdziwą osobą i zapraszając go na spotkanie do mieszkania w Nowym Jorku.


Mężczyzna, który wcześniej przeszedł udar i miał problemy z pamięcią, potraktował zaproszenie poważnie. Wyruszył więc w podróż, w trakcie której zasłabł, a następnie zmarł. Meta nie skomentowała bezpośrednio tej sytuacji. Ponadto nie wyjaśniła również, czemu jej chatbot AI jednoznacznie przekonywał, iż jest prawdziwym człowiekiem. 

Korzyści biznesowe na pierwszym miejscu

Eksperci zajmujący się projektowaniem systemów AI apelują, by boty nie udawały ludzi i nie prowadziły rozmów o charakterze seksualnym czy romantycznym, zwłaszcza z dziećmi lub osobami podatnymi na manipulację. Alison Lee, która wcześniej pracowała w dziale Responsible AI w Meta, zwraca uwagę na mechanizmy, które nagradzają boty za angażowanie użytkowników. Im bardziej rozmowa przypomina kontakt z prawdziwą osobą, tym większe jest zaangażowanie. To z kolei przekłada się na korzyści biznesowe.


W niektórych stanach USA wprowadzono już przepisy nakazujące informowanie użytkownika, że rozmawia z chatbotem. Problem w tym, że ich egzekwowanie jest nierówne. Nawet kilka miesięcy po wspomnianym wypadku chatboty AI od Meta wciąż flirtują z użytkownikami, proponują randki i zapewniają, że są prawdziwymi ludźmi.

Tablety w naszej ofercie:

Wróć

Właściciel serwisu: TERG S.A. Ul. Za Dworcem 1D, 77-400 Złotów; Spółka wpisana do Krajowego Rejestru Sądowego w Sądzie Rejonowym w Poznań-Nowe Miasto i Wilda w Poznaniu, IX Wydział Gospodarczy Krajowego Rejestru Sądowego pod nr KRS 0000427063, Kapitał zakładowy: 41 287 500,00 zł; NIP 767-10-04-218, REGON 570217011; numer rejestrowy BDO: 000135672. Sprzedaż dla firm (B2B): dlabiznesu@me.pl INFOLINIA: 756 756 756