Meta powinna zaostrzyć zasady co do treści tworzonych z AI? Rada Nadzorcza wydała rekomendacje

Rada Nadzorcza Mety opublikowała opinię, w której przekonuje, że firma powinna poważnie wzmocnić zasady dotyczące treści tworzonych przez sztuczną inteligencję. Chodzi przede wszystkim o materiały, które mogą wprowadzać odbiorców w błąd. Zdaniem Rady obecny system oznaczania i wykrywania takich treści nie radzi sobie z ich ogromną liczbą materiałów AI, zwłaszcza w momentach wzmożonego napięcia społecznego lub politycznego.
Meta potrzebuje dokładniejszego sprawdzania materiałów AI
Impulsem do wydania rekomendacji był przypadek z ubiegłego roku, gdy na platformach Mety pojawiło się wideo wygenerowane przez AI. Przedstawiało zniszczone budynki w Hajfie, choć w rzeczywistości było całkowicie fałszywe. Autorem posta był użytkownik z Filipin, który udawał lokalne źródło informacyjne.
Nagranie zgłaszało kilku internautów, ale mimo to nie zostało przeanalizowane ani przez pracowników Mety, ani przez współpracujących z firmą fact checkerów. Materiał krążył dalej bez żadnego ostrzeżenia dla odbiorców, dopóki sprawą nie zajęła się właśnie Rada Nadzorcza.
Obecne zabezpieczenia w mediach społecznościowych nie wystarczają
Rada uznała, że ten przykład nie jest pojedynczą wpadką, tylko ilustracją szerszego problemu. Obecne zabezpieczenia na Facebooku, Instagramie i Threads opierają się przede wszystkim na dwóch elementach. Pierwszy to deklaracje samych twórców, którzy powinni informować, czy korzystali z narzędzi AI. Drugi to możliwość ręcznego przekazania treści do dokładniejszego sprawdzenia.
Rada argumentuje, że taki mechanizm nie wystarcza i da się zrozumieć to stanowisko. Obecnie wystarczy kilka kliknięć na smartfonie czy laptopie i gotowe – mamy realistyczne zdjęcie lub nagranie wideo, które nie ma nic wspólnego z prawdą. Zwłaszcza w sytuacjach, w których informacje mocno wpływają na opinię publiczną, na przykład w czasie konfliktów zbrojnych, katastrof czy kampanii wyborczych, jest to zjawisko skrajnie niebezpieczne.
Rada ma kilka sugestii co do działań Mety w sferze AI
W swoich rekomendacjach Rada proponuje, aby Meta opracowała osobny zestaw zasad poświęcony właśnie treściom generowanym przez AI. Obecnie tego typu materiały są rozrzucane po różnych kategoriach związanych z dezinformacją. Rada uważa, że taki rozproszony model powoduje chaos i utrudnia szybkie reagowanie.
Kolejna sugestia dotyczy oznaczeń. Rada chce, by Meta częściej korzystała z etykiet informujących o wysokim ryzyku wprowadzenia użytkowników w błąd. Do tego, jego zdaniem, konieczne jest usprawnienie automatycznych systemów analizujących zdjęcia, filmy i nagrania audio. Ważne jest również jasne przedstawienie użytkownikom, jakie konsekwencje grożą za brak ujawnienia, że treść była modyfikowana lub w całości wygenerowana cyfrowo.
To nie pierwsza taka sytuacja
Rada zwraca także uwagę na Content Credentials, czyli branżowy standard pozwalający dodawać do plików metadane opisujące ich pochodzenie oraz informacje o tym, czy i w jaki sposób użyto narzędzi AI. Jej zdaniem Meta powinna stosować ten system konsekwentnie, również w przypadku treści generowanych przez własne modele.
To nie pierwsza sytuacja, w której Rada surowo ocenia działania Mety w tym obszarze. Wcześniej krytykowała firmę za zbyt skomplikowane zasady dotyczące zmanipulowanych materiałów i koncentrację na samym fakcie użycia AI zamiast na tym, czy dana treść jest potencjalnie myląca. Po tamtej sytuacji Meta zmieniła część etykiet i zastąpiła oznaczenie „Made with AI” szerszym „AI info”. Ta decyzja również spotkała się z wątpliwościami, ponieważ nowa etykieta jest zdaniem wielu zbyt ogólna i łatwa do przeoczenia.