NVIDIA H200 и младшие погонщики искусственного интеллекта

Флагманский процессор NVIDIA B200 на новейшей архитектуре Blackwell обладает впечатляющими показателями производительности. На фермах таких ускорителей обучают модели с триллионами параметров. И в то же время приближают «конец света» - аналитики говорят , что в ближайшем будущем американские дата-центры для ИИ будут потреблять больше электроэнергии, чем производство стали, цемента, химикатов и всех других энергоемких товаров вместе взятых. Еще более впечатляют инженерные системы сопровождения таких «фабрик ИИ»: разветвленные системы электроснабжения, жидкостное охлаждение, кластерная и трубопроводная инфраструктура.
Ступенью ниже в экосистеме NVIDIA стоит H200 – профессиональная графическая карта на архитектуре Hopper со 141 ГБ высокоскоростной памяти HBM3e. Она доступна в форм-факторах PCIe и SXM – последний обеспечивает более высокую пропускную способность в конфигурациях с несколькими GPU (например, в сборках NVIDIA DGX). В отличие от B200, серверы H200 легче интегрируются в стандартные дата-центры: они монтируются в традиционные стойки и охлаждаются воздухом. Хотя PCIe-версия NVIDIA H200 NVL уступает SXM-версии в производительности, она удобнее для масштабированных конфигураций из нескольких GPU. С помощью NVlink можно объединять два или четыре H200 NVL в высокоскоростной кластер или увеличивать доступную память для размещения LLM. Поддерживается технология Multi-Instance GPU (MiG) – разделение одного GPU на несколько изолированных экземпляров с собственными ресурсами.
Основной «рабочей лошадкой» разработчиков ИИ остается H100, также на архитектуре Hopper. Она подобна H200 по большинству характеристик и цене (около $40K), но имеет меньше памяти – 94 ГБ HBM3, потребляет меньше энергии и скромнее в требованиях к серверной платформе.
Другой завсегдатай серверов графических вычислений – L40S на архитектуре Ada Lovelace. Он имеет 48 ГБ памяти GDDR6 и стоит вчетверо дешевле H100/H200. При сравнительно более низкой производительности его часто выбирают из-за выгодного соотношения «цена-производительность». Например, для задач логического вывода в видеоаналитике, менее чувствительных к размеру и пропускной способности памяти, чем обучение LLM. Однако L40S не поддерживает NVlink и MiG.
Летом на сцену выйдет RTX PRO 6000 Server Edition (SE) на архитектуре Blackwell. Карта будет стоить втрое дешевле H100/H200, у нее 96 ГБ GDDR7, нет поддержки NVLink, зато есть поддержка MiG, что расширяет возможности в многопользовательских средах.
Сравнивать ускорители исключительно по выборкам табличных показателей – сомнительное дело. Всё зависит от специфики задач. Лучший вариант для тех, кто не определился – тест-драйв имеющейся модели вычислений на разных GPU. Такую услугу предоставляют облачные операторы, в частности De Novo .
|
H200 NVL |
H100 NVL |
RTX PRO 6000 SE |
L40S |
|
|
Архитектура |
Hopper |
Hopper |
Blackwell |
Ada Lovelace |
|
Ядро CUDA |
16 896 |
16 896 |
24 064 |
18 176 |
|
Тензорные ядра |
528 (Gen 4) |
528 (Gen 4) |
752 (Gen 5) |
568 (Gen 4) |
|
Память |
141 ГБ HBM3e |
94 ГБ HBM3 |
96 ГБ GDDR7 ECC |
48 ГБ GDDR6 ECC |
|
Ее пропускная способность |
4.8 ТВ/с |
3.9 ТВ/с |
1.597 ТВ/с |
864 ГБ/с |
|
Потребление |
600 W |
350-400 W |
600 W |
350 W |
|
Шина |
PCIe 5.0 x16 |
PCIe 5.0 x16 |
PCIe 5.0 x16 |
PCIe 4.0 x16 |
|
Форм-фактор |
Dual slot |
Dual slot |
Dual slot |
Dual slot |
|
Охлаждение |
Активное |
Активное |
Пассивное |
Пассивное |
|
Поддержка MIG |
До 7 инстанций @ 18ГБ |
До 7 инстанций @ 18ГБ |
До 4 инстанций @24 ГБ |
Нет |
|
NVlink |
Для 2 и 4 GPU |
Для 2 GPU |
Нет |
Нет |
|
Розничная цена |
$40K |
$40K |
$13K |
$10K |
Платформы-компаньоны
Для развертывания современных графических ускорителей, дата-центры используют специализированные серверные платформы с поддержкой нескольких GPU, высокой вычислительной плотностью. Все ведущие производители серверного оборудования имеют линейки GPU-платформ. NVIDIA как производитель ускорителей поддерживает партнерскую экосистему и регулярно обновляет список квалифицированных серверных платформ, рекомендованных для конкретных поколений GPU. Такой каталог позволяет быстро найти оптимальное аппаратное решение с гарантированной совместимостью.
С каждым новым поколением графические процессоры становятся более мощными и, соответственно, более требовательными к энергопитанию и охлаждению. В будущем жидкостное охлаждение станет нормой не только для гиперскейлеров, но и для обычных операторов инфраструктуры. Пока что удается использовать воздушное, хотя и на грани его эффективности.
Одним из примеров сертифицированной платформы под NVIDIA H200 NVL (а также RTX PRO 6000 SE) является сервер ASUS ESC8000A-E13P – решение с высокой плотностью GPU, поддержкой масштабируемых конфигураций и адаптированным охлаждением для тяжелых нагрузок.

Кесарево - кесарево
Местные компании и облачные провайдеры не участвуют в гонках мировых богов ИИ, однако и не отстают. Они используют посильную вычислительную базу для решения локальных задач рационально и эффективно. В ближайшем будущем в наших условиях наиболее распространенными инструментами для обучения моделей, генерации контента и инференса будет такое снаряжение NVIDIA:
- L 40 S – популярное универсальное решение для задач инференса и базового обучения нейросетей
- RTX PRO 6000 будет постепенно вытеснять L40S в новых проектах благодаря увеличенному объему видеопамяти (96 ГБ GDDR7)
- H 100 NVL и дальше будут покупать для масштабирования существующих инфраструктур
- H 200 NVL – бесспорный лидер: больше памяти, выше пропускная способность, есть поддержка масштабируемых конфигураций. Идеальный выбор для тяжелых LLM.
Покупать собственный GPU-сервер или арендовать «облачко», каждый бизнес решает самостоятельно.
