Czy kiedykolwiek przyszło wam do głowy, skąd AI właściwie wie, co odpowiedzieć? Przecież żeby udzielić sensownej odpowiedzi, musi mieć dostęp do tysięcy – a może i milionów – różnych źródeł. Teraz Unia Europejska postanowiła przyjrzeć się temu bliżej. Nowy kodeks, nie tylko porządkuje temat danych i ich legalności, ale ma też wpływ na to, jak działają systemy takie jak ChatGPT czy Gemini. Zmiany, które nadchodzą, mogą być odczuwalne również w codziennych rozmowach z AI. Warto więc wiedzieć, o co w tym wszystkim chodzi.
Podstawą nowego kodeksu UE jest obowiązek jasno określić, na jakich danych została wyszkolona dana AI. Oznacza to, że twórcy modeli – takich jak OpenAI, Google, Meta czy Anthropic – muszą ujawniać przynajmniej ogólny katalog źródeł: książek, artykułów, zdjęć, materiałów internetowych. To ukłon w stronę wydawców, fotografów, autorów artykułów, którym przysługuje ochrona prawna.
Dla przeciętnego użytkownika oznacza to większe poczucie bezpieczeństwa – jeśli AI korzysta z legalnych i dobrze udokumentowanych danych, maleje ryzyko przerzucania niesprawdzonych informacji. Jednocześnie pojawia się pytanie o wpływ tego rozwiązania na dynamikę rozwoju technologii.
Coraz więcej mówi się o tym, że sztuczna inteligencja – choć potrafi wiele – nie zawsze gra fair. Nie da się bowiem inaczej potraktować tego, że algorytm „uczy się” na cudzych zdjęciach, tekstach czy książkach, a nikt o tym nawet nie wie. Unia Europejska najwyraźniej uznała, że nie może być to dalej praktykowane. Dlatego pojawił się kodeks, który wprost mówi: koniec z tajemnicami. Jeśli AI była trenowana na konkretnych danych, trzeba to jasno powiedzieć.
Firmy takie jak OpenAI, Google czy Microsoft będą musiały wreszcie ujawnić, na czym dokładnie opierają swoje modele. Nie chodzi o to, żeby rozliczać ich co do przecinka – ale żeby było wiadomo, czy dana technologia nie opiera się przypadkiem na materiałach, do których nikt nie dał im dostępu. Prościej mówiąc: koniec z „pożyczaniem” cudzych rzeczy bez pytania. Dla twórców to naprawdę dobra wiadomość.
Oficjalnie kodeks jest „propozycją”, a nie nakazem. W praktyce – każdy, kto go nie podpisze, naraża się na to, że prędzej czy później będzie miał problemy. Bo choć obowiązywać zacznie dopiero w sierpniu 2025 roku, już teraz wiadomo, że kto nie wejdzie w tę grę, ten zostanie na lodzie. Najwięksi gracze już się przygotowują. OpenAI i Microsoft prowadzą rozmowy z Komisją Europejską, podobnie Google. I nic dziwnego, bo UE przygląda im się bardzo uważnie – zwłaszcza że pojawiają się pytania o uczciwą konkurencję, o to, kto z kim współpracuje i kto na tym zyskuje.
Jedno jest pewne: lepiej zawczasu ułożyć się z regulatorem niż później tłumaczyć się w sądzie. Tym bardziej że użytkownicy też coraz częściej chcą wiedzieć, z czego korzystają – i czy mogą temu ufać.
To nie jest zmiana, którą odczuje wyłącznie kilka wielkich korporacji. Wbrew pozorom, nowe regulacje dotyczące sztucznej inteligencji sięgają znacznie dalej – aż po sprzęt, z którego korzysta zwykły użytkownik.
Z jednej strony mamy ogromne centra danych, w których AI działa w pełni mocy – serwery chłodzone cieczą, karty graficzne z rodziny H100, specjalistyczne procesory typu TPU. To tam modele językowe uczą się, przetwarzają zapytania i generują odpowiedzi. Ale z drugiej strony, tuż obok, jest przestrzeń bardziej namacalna – nasze codzienne urządzenia. Smartfony, które coraz częściej potrafią pracować z AI lokalnie. Laptopy z wbudowanym wsparciem w postaci „asystenta AI” czy tablety, które w tle analizują notatki i obrazy.
Zmienia się też sposób, w jaki ten sprzęt ma działać. Chodzi nie tylko o to, by był szybki – to już standard. Chodzi o to, by był bezpieczny, przejrzysty i działał według zasad, które da się jasno wytłumaczyć. Unia Europejska wyraźnie pokazuje: nie ma znaczenia, czy mówimy o urządzeniu końcowym w rękach użytkownika, czy o serwerze w chmurze – reguły muszą być te same. AI nie może być czarną skrzynką.