Meta znalazła się w ogniu krytyki po tym, jak ujawniono wewnętrzne dokumenty opisujące zasady działania jej chatbotów AI. Chodzi o wytyczne, które dopuszczały rozmowy o romantycznym charakterze z dziećmi, rozpowszechnianie fałszywych informacji medycznych oraz treści o charakterze rasistowskim.
W artykule znajdziesz:
Reuters dotarł do dokumentu, który zawiera szczegółowe instrukcje dla chatbotów używanych na Facebooku, Instagramie i WhatsAppie. Meta potwierdziła jego autentyczność. Dokument liczy ponad 200 stron i był zatwierdzony przez zespoły prawne, inżynieryjne oraz zajmujące się polityką firmy. Zawiera on nie tylko ogólne założenia, ale też konkretne przykłady interakcji, jakie chatboty mogą prowadzić z użytkownikami.
Jeden z najbardziej kontrowersyjnych fragmentów dotyczył dzieci. Zasady pozwalały botom na prowadzenie rozmów z dziećmi w romantycznym tonie – na przykład komentowanie wyglądu czy odgrywanie ról w scenariuszach przypominających grę fabularną. Zakazane były jedynie rozmowy zawierające bezpośrednio seksualny język. Meta twierdzi, że te fragmenty zostały już usunięte, aczkolwiek nowej wersji dokumentu nie udostępniono.
Rzecznik Meta, Andy Stone, przyznał w rozmowie z Reutersem, że standardy były błędne i niezgodne z zasadami firmy. Dodał, iż Meta usuwa kontrowersyjne przykłady, ale jednocześnie zaznaczył, że proces egzekwowania tych zasad był dotąd niespójny, a niektóre nieodpowiednie treści wciąż pozostają dostępne. Dzieje się tak, niezależnie od tego, z jakiego urządzenia korzysta użytkownik – smartfona, tabletu, czy np. laptopa.
W dokumencie znalazły się też instrukcje dotyczące rozpowszechniania fałszywych informacji. Zgodnie z nimi chatboty mogą przekazywać nieprawdziwe treści, o ile zawierają dopisek informujący o ich nieścisłości.
Jak to działało w praktyce? Przykładowo, AI mogła wygenerować fałszywą wiadomość o członku rodziny królewskiej cierpiącym na chorobę weneryczną, pod warunkiem że bot oznaczył tę informację jako nieprawdziwą. Innym razem chatbot zasugerował stosowanie kryształów kwarcu jako terapii na raka jelita grubego w zaawansowanym stadium. Jednocześnie zaznaczył, że to niepotwierdzona i błędna porada. Mimo to przekaz poszedł w świat.
Kontrowersje wzbudziły także fragmenty dotyczące tematów rasowych. Choć zasady zakazują mowy nienawiści, dopuszczają wyjątki. Wśród przykładów znajdują się takie, które sugerują, że chatbot może wygenerować wypowiedź sugerującą, że czarnoskóre osoby są mniej inteligentne od białych. Nie wyjaśniono, dlaczego tego typu scenariusze były akceptowane.
Meta posiada też odrębne zasady dotyczące generowania obrazów. System ma z założenia odrzucać próby tworzenia seksualizowanych zdjęć znanych osób, ale dopuszcza formy obejściowe. Jeden z przykładów pokazuje odpowiedź bota, który zamiast zdjęcia topless Taylor Swift wygenerował obraz piosenkarki trzymającej dużą rybę – sugestia miała charakter żartobliwy, ale nieprzypadkowy. Zasady dotyczące przemocy z kolei pozwalają na tworzenie obrazów przedstawiających walki dzieci lub bójki dorosłych, ale zakazują scen zawierających śmierć czy brutalne obrażenia.
Wszystko to wpisuje się w szerszy kierunek rozwoju, który obrała Meta. Chodzi o integrację chatbotów AI jako cyfrowych towarzyszy w życiu codziennym użytkowników. Mark Zuckerberg mówił o przyszłości, w której relacje z botami staną normalnym elementem życia społecznego i przestaną być tematem tabu. Z dokumentu wynika, że firma celowo projektowała chatboty tak, by były jak najbardziej „ludzkie”. Niektórzy pracownicy Meta zwracają uwagę, że kierownictwo ignorowało ostrzeżenia dotyczące bezpieczeństwa i nie chciało wprowadzać bardziej restrykcyjnych ograniczeń.
Sprawa nabrała szczególnego znaczenia po głośnym incydencie z udziałem starszego mężczyzny. Chatbot o nazwie Big Sis Billie – wzorowany na Kendall Jenner – prowadził z nim długą, flirtującą rozmowę, przekonując, że jest prawdziwą osobą i zapraszając go na spotkanie do mieszkania w Nowym Jorku.
Mężczyzna, który wcześniej przeszedł udar i miał problemy z pamięcią, potraktował zaproszenie poważnie. Wyruszył więc w podróż, w trakcie której zasłabł, a następnie zmarł. Meta nie skomentowała bezpośrednio tej sytuacji. Ponadto nie wyjaśniła również, czemu jej chatbot AI jednoznacznie przekonywał, iż jest prawdziwym człowiekiem.
Eksperci zajmujący się projektowaniem systemów AI apelują, by boty nie udawały ludzi i nie prowadziły rozmów o charakterze seksualnym czy romantycznym, zwłaszcza z dziećmi lub osobami podatnymi na manipulację. Alison Lee, która wcześniej pracowała w dziale Responsible AI w Meta, zwraca uwagę na mechanizmy, które nagradzają boty za angażowanie użytkowników. Im bardziej rozmowa przypomina kontakt z prawdziwą osobą, tym większe jest zaangażowanie. To z kolei przekłada się na korzyści biznesowe.
W niektórych stanach USA wprowadzono już przepisy nakazujące informowanie użytkownika, że rozmawia z chatbotem. Problem w tym, że ich egzekwowanie jest nierówne. Nawet kilka miesięcy po wspomnianym wypadku chatboty AI od Meta wciąż flirtują z użytkownikami, proponują randki i zapewniają, że są prawdziwymi ludźmi.