Qualcomm, do tej pory znany głównie z procesorów do smartfonów, postanowił wejść w świat dużych centrów danych. Firma zaprezentowała dwa nowe akceleratory AI – modele AI200 i AI250 – które będą wykorzystywane w praktycznych zastosowaniach sztucznej inteligencji, po zakończeniu treningu modeli generatywnych, czyli w etapie inferencji. Jak bardzo nowy gracz namiesza w branży?
Rynek akceleratorów AI przypomina dziś bardzo dynamiczną szachownicę, na której dotąd prym wiodła Nvidia, a AMD konsekwentnie goniło lidera. Qualcomm postanowił rzucić wyzwanie, ale nie po to, żeby być kolejnym graczem z tej samej półki. Wybrał oddzielną ścieżkę i segment, który będzie rósł wraz z upowszechnianiem generatywnej AI w usługach publicznych, medycynie, przemyśle i komunikacji.
Rynek zareagował szybko. Informacja o nowych układach sprawiła, że wartość firmy wzrosła zauważalnie w ciągu jednego dnia. To jasny znak, że inwestorzy widzą tu potencjał większy niż tylko kolejny chip. Jeśli Qualcomm rzeczywiście dostarczy rozwiązanie bardziej energooszczędne od obecnych kart graficznych stosowanych w serwerach AI, może stać się wyborem dla firm, które liczą każdą kilowatogodzinę.
Rosnące rachunki za prąd są faktem i dotyczą nie tylko użytkowników komputerów stacjonarnych w domach, lecz przede wszystkim centrów danych, gdzie koszt energii przesądza o opłacalności usług chmurowych. Trudno wyobrazić sobie teraz rozwój AI bez sprzętu, który dba zarówno o wydajność obliczeń, jak i o środowisko.
Dodatkowo Qualcomm stara się zapewnić, że jego platforma będzie otwarta. Wsparcie dla PyTorch, ONNX, TensorFlow i LangChain to próba pokazania, że nowe układy odnajdą się w obecnym ekosystemie software, a nie będą wymagały zbudowania wszystkiego od zera.
Qualcomm rozwija AI200 i AI250 na bazie architektury Hexagon NPU, wcześniej wykorzystywanej głównie w urządzeniach mobilnych takich jak smartfony czy tablety, a teraz przeniesionej do centrów danych. Podejście to pozwala obsługiwać zarówno lekkie formaty obliczeń INT2 i INT4, jak i dokładniejsze FP8 oraz FP16, co zwiększa wszechstronność zastosowań - od wydajnych serwerów AI po przyszłe integracje z komputerami stacjonarnymi, które mogą lokalnie wykonywać modele generatywne.
AI200, planowany jest na 2026 rok, zaoferuje aż 768 GB pamięci LPDDR oraz chłodzenie cieczą, znane dotąd głównie z segmentu sprzętu premium PC, lecz tu stosowane w skali serwerowej. Jednocześnie rozwiązania PCIe i Ethernet zapewniają skalowanie infrastruktury, a wirtualizacja zwiększa bezpieczeństwo i elastyczność środowisk chmurowych.
AI250, który pojawi się rok później, idzie krok dalej dzięki silniejszej integracji układów scalonych z pamięcią i technologii near-memory compute. Qualcomm świadomie unika bezpośredniego starcia z Nvidią w treningu modeli, koncentrując się na inferencji, czyli szybkim i energooszczędnym działaniu sztucznej inteligencji w praktyce.
Choć entuzjazm jest wyczuwalny, Qualcomm stoi przed szeregiem testów. Czas premiery jest odległy, a konkurencja już dziś sprzedaje rozwiązania obsługujące zarówno uczenie maszynowe, jak i generowanie AI. Nvidia ma gigantyczną przewagę dzięki CUDA i całemu oprogramowaniu, które wyrosło wokół jej kart graficznych. AMD również przyspiesza wykorzystując moc akceleratorów GPU w centrach danych.
Pozostaje pytanie o TCO, czyli całkowity koszt użytkowania. Duże zapotrzebowanie energetyczne i chłodzenie cieczą oznacza inwestycje, które trzeba uzasadnić. Dla klientów liczą się nie tylko parametry techniczne, lecz także dostępność komponentów, serwis, wsparcie i integracja z istniejącą infrastrukturą IT. Interesujące będzie również to, czy Qualcomm zdoła dotrzymać obietnicy szybkich aktualizacji sprzętu. Branża nie wybacza opóźnień, szczególnie w czasie, gdy każda generacja modeli AI zjada zasoby szybciej niż poprzednia.
Qualcomm nie zamierza grać w tej samej lidze co wszyscy. Buduje własną linię akceleratorów AI, które mają obsługiwać najważniejszą część działania modeli sztucznej inteligencji: szybkie i ekonomiczne dostarczanie gotowych odpowiedzi. W erze, w której generatywna AI trafia do aplikacji biurowych, usług klientów czy nawet bardziej zaawansowanych komputerów stacjonarnych dla twórców, to może okazać się strzałem w dziesiątkę.
Jeżeli obietnice dotyczące efektywności i skalowalności zostaną spełnione, Qualcomm stanie się nie tylko konkurentem dla największych, lecz także katalizatorem zmian na rynku, który dopiero zaczyna rozumieć swoje realne potrzeby. A dla użytkowników końcowych i firm oznacza to jedno: więcej wyboru i szybszy rozwój inteligentnych technologii. Bo przyszłość AI to nie tylko większa moc. To również mądrzejsza architektura i lepiej zaprojektowane urządzenia, od serwerowni aż po biurkowe zestawy komputerowe.