
NVIDIA i SK hynix pracują nad nowym typem dysku SSD zaprojektowanym specjalnie z myślą o systemach AI. Według zapowiedzi ma on być nawet dziesięć razy szybszy od obecnych rozwiązań stosowanych w centrach danych. To kolejny krok we współpracy tych firm.
Informację na ten temat ujawnił niedawno Kim Cheon-Seong, czyli wiceprezes SK hynix. Podczas konferencji powiedział wprost, że firma wspólnie z NVIDIĄ opracowuje nowy dysk SSD, którego wydajność ma wielokrotnie przewyższać to, co dziś oferują tego typu nośniki. Projekt funkcjonuje pod dwiema nazwami. NVIDIA używa określenia Storage Next, natomiast SK hynix mówi o AI NAND performance. Na razie jest to etap koncepcyjny, a gotowy prototyp ma powstać przed końcem 2026 roku.
Ambicje obu firm są bardzo konkretne. SK hynix celuje w poziom około 100 milionów operacji wejścia i wyjścia na sekundę. Dla porównania, nawet najszybsze dyski SSD używane obecnie w serwerach są kilka rzędów wielkości wolniejsze. Taki skok oznaczałby realną zmianę w architekturze systemów AI. Granica między pamięcią operacyjną a magazynem danych zaczęłaby się zacierać, przynajmniej z punktu widzenia oprogramowania i modeli inferencyjnych.
Powód rozpoczęcia prac na takimi dyskami SSD jest prozaiczny. Współczesne modele AI podczas inferencji muszą nieustannie sięgać po ogromne ilości danych, w tym parametry modeli liczone w setkach gigabajtów. HBM i DRAM są bardzo szybkie, ale drogie i trudne do skalowania przy takiej pojemności. Z kolei klasyczne SSD są tanie i pojemne, lecz zbyt wolne. Koncepcja Storage Next zakłada stworzenie pośredniej warstwy, opartej na pamięci NAND, ale obsługiwanej przez kontrolery zaprojektowane wyłącznie pod potrzeby obliczeń AI, a nie uniwersalne przechowywanie plików.
Taki kierunek może mieć też skutki dla całego rynku. Popyt na NAND już teraz rośnie wraz z rozwojem chmury i usług AI. Jeśli wyspecjalizowane dyski SSD dla AI staną się standardem, presja na łańcuch dostaw może się jeszcze zwiększyć.
Z perspektywy NVIDII i SK hynix stawką jest nie tylko wydajność, ale też kwestia zużycia energii. Dzisiejsze centra danych AI coraz często dochodzą do ściany właśnie w tym obszarze. Jeśli pamięć flash ma odegrać bardziej aktywną rolę w obsłudze modeli uczenia maszynowego, musi być szybka, przewidywalna i znacznie oszczędniejsza energetycznie niż obecne rozwiązania. I właśnie w tym kierunku zmierza ten projekt.