
Nvidia и SK hynix расширяют сотрудничество за пределы HBM и взялись за совместную разработку специализированного AI‑SSD, который должен снять узкие места по данным в ИИ‑серверах. Новый накопитель на базе NAND, известный как Storage Next у Nvidia и AI‑NP у SK hynix, нацелен на производительность до 100 млн IOPS, что примерно в 10 раз выше топовых корпоративных SSD.
Идея в том, чтобы использовать NAND как псевдослой памяти для AI‑инференса, разгружая дорогую HBM и DRAM и позволяя моделям работать с гораздо большими наборами параметров без постоянных свопов. SK hynix уже успешно снабжает Nvidia HBM‑памятью для GPU, а теперь переносит этот опыт в мир флеша, оптимизируя архитектуру NAND и контроллеры под паттерны доступа ИИ, а не под обычное хранение файлов.
Проект пока на стадии proof‑of‑concept: компании планируют подготовить прототип AI‑SSD к концу 2026 года, а целевая планка в 100 млн IOPS требует радикальных изменений в контроллерах, прошивке и стеке взаимодействия с ускорителями. Такой накопитель должен серьёзно уменьшить задержки доступа к данным и энергопотребление на операцию ввода‑вывода, что критично для огромных дата‑центров с LLM и генеративным ИИ.
Аналитики отмечают, что подобные AI‑SSD могут перетрясти весь NAND‑рынок: если такие устройства станут стандартом для AI‑кластеров, спрос на высокопроизводительные флеш‑чипы вырастет, а потребительские SSD могут подорожать на фоне конкуренции за объёмы. Для Nvidia это способ ещё сильнее связать экосистему вокруг своих GPU, а для SK hynix — шанс выделиться на фоне конкурентов за счёт продвинутых решений под ИИ.