Nvidia и SK hynix создают AI‑SSD, который может ускорить память в 10 раз

Nvidia и SK hynix расширяют сотрудничество за пределы HBM и взялись за совместную разработку специализированного AI‑SSD, который должен снять узкие места по данным в ИИ‑серверах. Новый накопитель на базе NAND, известный как Storage Next у Nvidia и AI‑NP у SK hynix, нацелен на производительность до 100 млн IOPS, что примерно в 10 раз выше топовых корпоративных SSD.

Идея в том, чтобы использовать NAND как псевдослой памяти для AI‑инференса, разгружая дорогую HBM и DRAM и позволяя моделям работать с гораздо большими наборами параметров без постоянных свопов. SK hynix уже успешно снабжает Nvidia HBM‑памятью для GPU, а теперь переносит этот опыт в мир флеша, оптимизируя архитектуру NAND и контроллеры под паттерны доступа ИИ, а не под обычное хранение файлов.

Проект пока на стадии proof‑of‑concept: компании планируют подготовить прототип AI‑SSD к концу 2026 года, а целевая планка в 100 млн IOPS требует радикальных изменений в контроллерах, прошивке и стеке взаимодействия с ускорителями. Такой накопитель должен серьёзно уменьшить задержки доступа к данным и энергопотребление на операцию ввода‑вывода, что критично для огромных дата‑центров с LLM и генеративным ИИ.

Аналитики отмечают, что подобные AI‑SSD могут перетрясти весь NAND‑рынок: если такие устройства станут стандартом для AI‑кластеров, спрос на высокопроизводительные флеш‑чипы вырастет, а потребительские SSD могут подорожать на фоне конкуренции за объёмы. Для Nvidia это способ ещё сильнее связать экосистему вокруг своих GPU, а для SK hynix — шанс выделиться на фоне конкурентов за счёт продвинутых решений под ИИ.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *