Wyobraź sobie zwykłą internetową ankietę. Klikasz kolejne pytania, przechodzisz przez reCAPTCHA, masz pewność, że wszystko przebiega normalnie. Tymczasem okazuje się, że wcale nie rozmawiasz z człowiekiem. Najnowsze badania pokazują, że sztuczna inteligencja potrafi udawać użytkownika sieci z zadziwiającą dokładnością. To już nie futurystyczna wizja, lecz poważne wyzwanie dla rzetelności sondaży i kluczowych procesów demokratycznych.
Najnowsze badania przeprowadzone na Dartmouth University pokazują, że AI wyposażona w duży model językowy (LLM) potrafi stworzyć syntetyczny respondent. Czyli w pełni fikcyjną osobowość, która w czasie ankiet zachowuje się niczym prawdziwy człowiek. W eksperymencie naukowcy dali AI długi, szczegółowy opis liczący około 500 słów. Na jego podstawie system stworzył kompletny profil człowieka – z wymyślonym wiekiem, płcią, pochodzeniem, poziomem wykształcenia, miesięcznym dochodem, a nawet adresem zamieszkania. Osobowość symulowała również realistyczny czas udzielania odpowiedzi na pytania względem wykształcenia oraz wykonywała nerwowe ruchy komputerową myszką i popełniała celowe literówki – wszystko po to by bardziej przypominać prawdziwego człowieka.
W ponad 43 000 testach AI przekonała 99,8 % systemów wykrywających boty, że jest żywym respondentem. Poradziła sobie świetnie i właśnie tu pojawia się problem. Bez najmniejszego wysiłku rozwiązywała łamigłówki logiczne, przechodziła testy i omijała bardziej zaawansowane pytania.
Sposób, w jaki AI przechodziło testy wykrywające boty, jest zaskakująco wyrafinowany. Zamiast szybko generować teksty, syntetyczny respondent poświęcał czas na symulację rutyny ludzkiego działania. Zaczął analizować pytania i czytać je w sposób adekwatny do wykreowanej przez siebie osobowości, a potem klikał i wpisywał odpowiedzi tak, jak robią to ludzie - wraz z literówkami, poprawkami czy nietypowymi spacjami.
Co więcej, AI zbadana w eksperymencie działała niezależnie od języka. Potrafiła udzielać spójnych, płynnych i pozornie logicznych odpowiedzi nawet gdy była zainicjowana w języku rosyjskim, mandaryńskim czy koreańskim. Oznacza to, że technologia może być wykorzystywana międzynarodowo i przez zagraniczne podmioty – nawet takie, które chciałyby wpływać na sondaże w obcych krajach.
Naukowcy ostrzegają, że w obecnej formie nasze mechanizmy obronne – systemy CAPTCHA, testy behawioralne, a nawet sama logika ankiet mogą być niewystarczające. Jeśli badacze i instytucje nie dostosują zabezpieczeń, manipulacje mogą stać się codziennym narzędziem wpływu.
To, że AI potrafi podrobić odpowiedzi w ankietach, nie jest tylko techniczną ciekawostką – to realny problem, który dotyka samego fundamentu demokracji. Sondaże opinii publicznej mają ogromne znaczenie. Pokazują bowiem, jakie są nastroje społeczne, pomagają przewidywać wyniki wyborów, a czasem wpływają nawet na decyzje polityków. Jeśli w takich badaniach zacznie pojawiać się coraz więcej botów, ich wyniki staną się po prostu niewiarygodne.
Co gorsza, manipulowanie ankietami za pomocą AI jest bardzo tanie. Jedna fałszywa odpowiedź stworzona przez syntetycznego respondenta kosztuje dosłownie kilka centów – o wiele mniej niż wynagrodzenie, jakie zwykle dostają prawdziwi uczestnicy badań.
Czy zatem instytucje badawcze, media i ośrodki naukowe są gotowe na takie zagrożenie? Zdaniem Seana Westwooda, profesora z Dartmouth i współautora eksperymentu, konieczne są szybkie zmiany. Systemy zbierania danych muszą zostać przebudowane tak, by dało się z całą pewnością ustalić, czy za odpowiedziami stoi człowiek, czy algorytm.
Badacze nie pozostawiają nas bez wskazówek. Sean Westwood podkreśla, że już istnieją technologie pozwalające sprawdzić, czy dane naprawdę pochodzą od człowieka, jednak kluczowa jest wola ich wdrożenia. W praktyce oznacza to wykorzystanie nowoczesnych rozwiązań, które działają zarówno na komputerach osobistych PC, jak i smartfonach czy tabletach. Dzięki nim można już monitorować sposób, w jaki uczestnik korzysta z urządzenia – jak porusza myszką, w jaki sposób dotyka ekranu monitora, czy jak długo wpisuje daną odpowiedź – i w ten sposób odróżnić prawdziwego użytkownika od bota.
Coraz częściej rozwija się też hybrydowe podejście "human-in-the-loop", w którym zbieranie danych kontroluje dodatkowy operator. Współpraca naukowców, firm technologicznych i ośrodków badawczych staje się więc kluczowa. Dodatkowo regulacje prawne, zarówno krajowe, jak i międzynarodowe, mogą wymuszać pełną transparentność w sposobie gromadzenia danych i stosowaniu urządzeń weryfikujących uczestników ankiet, chroniąc wyniki badań społecznych przed manipulacją.