
YouTube wprowadza nowe narzędzie oparte na sztucznej inteligencji, które ma rozpoznawać treści tworzone przez AI, szczególnie te wykorzystujące twarze i głosy twórców bez ich zgody. Dzięki tej funkcji osoby zweryfikowane w Programie Partnerskim zyskają większą kontrolę nad tym, jak ich wizerunek jest wykorzystywany w sieci. To jedno z pierwszych tak szerokich rozwiązań w branży, które ma chronić tożsamość i reputację twórców bezpośrednio w ramach platformy.
Nowy system wykorzystuje połączenie algorytmów rozpoznawania twarzy i głosu, aby identyfikować materiały, które mogą być wygenerowane przez sztuczną inteligencję. Działa podobnie do dobrze znanego Content ID, które wykrywa treści chronione prawem autorskim. Tym razem jednak narzędzie skupia się na ochronie wizerunku i głosu. System nieustannie analizuje przesyłane na YouTube filmy, porównując je z materiałami referencyjnymi dostarczonymi przez twórców.
Celem projektu jest walka z podszywaniem się i tworzeniem deepfake’ów, które mogą wprowadzać widzów w błąd lub przypisywać twórcom poglądy, których w rzeczywistości nie wyrazili. YouTube podkreśla, że problem nasilił się w ostatnich latach wraz z rozwojem technologii generatywnej AI. Dziś każdy może w kilka minut stworzyć realistyczne wideo, które wygląda jak prawdziwe nagranie. Wystarczy do tego laptop, a nawet urządzenie mobilne typu smartfon lub tablet.
Aby skorzystać z nowej funkcji, twórca musi przejść proces weryfikacji. Wymaga on zgody na przetwarzanie danych, zeskanowania kodu QR, przesłania zdjęcia dowodu tożsamości oraz nagrania krótkiego filmu typu selfie. Ten materiał służy do wytrenowania modelu dopasowującego twarz i głos użytkownika. Dane są następnie analizowane na serwerach Google. Cała procedura trwa zazwyczaj kilka dni, po czym twórca uzyskuje dostęp do dedykowanego panelu w YouTube Studio.
W panelu wyświetlane są filmy, które system uznał za możliwe kopie wizerunku lub głosu danego twórcy. Każdy wynik zawiera tytuł filmu, nazwę kanału, liczbę wyświetleń i subskrybentów oraz informację, jak pewny jest algorytm co do tego, że materiał został stworzony przez AI. W zależności od sytuacji twórca może wybrać jedną z trzech opcji: złożyć wniosek o usunięcie filmu ze względu na naruszenie prywatności, zgłosić roszczenie dotyczące praw autorskich lub po prostu zarchiwizować znalezisko jako dokumentację.
YouTube przyznaje, że w początkowej fazie system nie zawsze będzie trafnie rozróżniał autentyczne nagrania od wersji sztucznie wygenerowanych. Algorytmy wciąż się uczą, a dokładność rozpoznawania ma się poprawiać wraz z czasem i ilością analizowanych materiałów.
Funkcja, której wdrażanie rozpoczęło się w tym tygodniu, to efekt testów prowadzonych od końca ubiegłego roku. W pilotażu uczestniczyło około pięciu tysięcy twórców, głównie znane osoby, które najczęściej padają ofiarą prób podszywania się. Testy prowadzone były wspólnie z agencją Creative Artists Agency, a ich wyniki posłużyły do dopracowania systemu przed wprowadzeniem go na większą skalę.
Jak poinformował Jack Malon, menedżer ds. komunikacji polityki YouTube, w pierwszej kolejności narzędzie udostępniono tym użytkownikom, którzy najbardziej odczują jego korzyści. Firma planuje rozszerzyć dostęp globalnie do stycznia 2026 roku.
YouTube podkreśla, że nowe narzędzie nie ma ograniczać kreatywności, ale chronić tożsamość i wiarygodność osób tworzących treści. Deepfake’i coraz częściej stają się narzędziem manipulacji i dezinformacji, a platforma chce zapewnić, by jej użytkownicy mogli samodzielnie decydować, jak ich wizerunek jest wykorzystywany.