Google Pixel 10 Pro otrzymał dodatkową funkcję o nazwie Pro Res Zoom. To narzędzie korzysta z generatywnej sztucznej inteligencji, by odtwarzać detale w zdjęciach zrobionych przy bardzo dużym zbliżeniu. W teorii ma to pozwalać na uzyskanie ostrego obrazu nawet wtedy, gdy optyka telefonu i matryca nie są w stanie uchwycić wszystkich szczegółów. W praktyce oznacza to, że część zdjęcia może być nie tyle zarejestrowana przez aparat, co wygenerowana przez AI.
Google twierdzi, że technologia ma zmienić sposób, w jaki myślimy o mobilnej fotografii. Póki co jednak to innowacyjne rozwiązanie budzi sporo emocji. Jedni są zachwyceni takimi możliwościami obróbki fotografii, inni pytają, czy w takim razie nadal mamy do czynienia ze zdjęciem, czy już z jego cyfrową interpretacją?
Jednym z pierwszych popularnych przykładów działania Pro Res Zoom było nagranie YouTubera Parkera Burtona. Pokazał on, jak smartfon wyostrza zdjęcie maskotki Androida zrobione z drugiego końca pokoju. Rozmyta, nieczytelna plama po chwili staje się szczegółowym obrazem. Widać nie tylko kształt zabawki, ale i fakturę ściany za nią. Efekt robi wrażenie.
Nie zawsze jednak ta technologia działa idealnie. Znane są przykłady, gdy na przetworzonej fotografii nie dało się odczytać tekstu z opakowania, bo AI nie potrafiło zrekonstruować liter i grafik. W takim wypadku system nie miał wystarczająco dużo danych, aby „domyślić się”, w jaki sposób powinien uzupełnić napis.
Zdaje się, że producenci są świadomi niedoskonałości rozwiązania, które zaproponowali użytkownikom. Ponadto Google zaznacza, że Pro Res Zoom nie działa przy zdjęciach ludzi, a każde ujęcie zapisywane jest także w wersji oryginalnej, bez ingerencji AI. Użytkownik może więc sam porównać oba obrazy.
Nie jest to pierwsze podejście do fotografii wspomaganej przez AI. Na przykład Samsung już kilka lat temu wprowadził w swoich modelach Galaxy system oparty na tzw. superrozdzielczości. Łączy on kilka zdjęć w jedno i poprawia jakość przy dużym zbliżeniu. Rozwiązanie to różni się jednak od tego zastosowanego w smartfonie Google Pixel 10 Pro. Koreański producent stawia bowiem głównie na optykę i przetwarzanie obrazu, a nie na generowanie brakujących szczegółów.
Swego czasu Samsung również był krytykowany za rzekome „fałszowanie” zdjęć. Problem omawiano zwłaszcza na przykładzie fotografii Księżyca. Firma odpowiadała wówczas, że ich sprzęt nie generuje niczego od zera, tylko wzmacnia kontrast i ostrość na podstawie wyuczonych wzorców.
W tle tych technologicznych sporów pojawia się pytanie: co dziś oznacza „prawdziwe” zdjęcie? Granica między fotografią a grafiką komputerową robi się coraz mniej wyraźna. Widać to właśnie w takich przypadkach jak z Google Pixel 10 Pro. Niektóre ujęcia robią ogromne wrażenie i pokazują, jak potężne narzędzie sztuczna inteligencja daje nam do dyspozycji. Jednocześnie z czasem może być coraz trudniej z rozróżnieniem realnego zapisu chwili od cyfrowego wyobrażenia tego, co aparat prawdopodobnie zauważył. A to z kolei rodzi pytania o ryzyko związane z wizualną dezinformacją, która w obecnych czasach zaczyna stanowić coraz większe zagrożenie.
Z perspektywy przeciętnego użytkownika najważniejsze może być to, czy zdjęcie wygląda dobrze. Ale dla fotografów, dziennikarzy czy dokumentalistów różnica między uchwyceniem rzeczywistości a jej odtworzeniem może być kluczowa. Wygląda na to, że w najbliższej przyszłości będziemy musieli te granice na nowo przemyśleć.