NVIDIA H200 и младшие погонщики искусственного интеллекта

06.05.2025 | Серверы

 

Флагманский процессор NVIDIA B200 на новейшей архитектуре Blackwell обладает впечатляющими показателями производительности. На фермах таких ускорителей обучают модели с триллионами параметров. И в то же время приближают «конец света» - аналитики говорят , что в ближайшем будущем американские дата-центры для ИИ будут потреблять больше электроэнергии, чем производство стали, цемента, химикатов и всех других энергоемких товаров вместе взятых. Еще более впечатляют инженерные системы сопровождения таких «фабрик ИИ»: разветвленные системы электроснабжения, жидкостное охлаждение, кластерная и трубопроводная инфраструктура.

Ступенью ниже в экосистеме NVIDIA стоит H200 – профессиональная графическая карта на архитектуре Hopper со 141 ГБ высокоскоростной памяти HBM3e. Она доступна в форм-факторах PCIe и SXM – последний обеспечивает более высокую пропускную способность в конфигурациях с несколькими GPU (например, в сборках NVIDIA DGX). В отличие от B200, серверы H200 легче интегрируются в стандартные дата-центры: они монтируются в традиционные стойки и охлаждаются воздухом. Хотя PCIe-версия NVIDIA H200 NVL уступает SXM-версии в производительности, она удобнее для масштабированных конфигураций из нескольких GPU. С помощью NVlink можно объединять два или четыре H200 NVL в высокоскоростной кластер или увеличивать доступную память для размещения LLM. Поддерживается технология Multi-Instance GPU (MiG) – разделение одного GPU на несколько изолированных экземпляров с собственными ресурсами.

Основной «рабочей лошадкой» разработчиков ИИ остается H100, также на архитектуре Hopper. Она подобна H200 по большинству характеристик и цене (около $40K), но имеет меньше памяти – 94 ГБ HBM3, потребляет меньше энергии и скромнее в требованиях к серверной платформе.

Другой завсегдатай серверов графических вычислений – L40S на архитектуре Ada Lovelace. Он имеет 48 ГБ памяти GDDR6 и стоит вчетверо дешевле H100/H200. При сравнительно более низкой производительности его часто выбирают из-за выгодного соотношения «цена-производительность». Например, для задач логического вывода в видеоаналитике, менее чувствительных к размеру и пропускной способности памяти, чем обучение LLM. Однако L40S не поддерживает NVlink и MiG.

Летом на сцену выйдет RTX PRO 6000 Server Edition (SE) на архитектуре Blackwell. Карта будет стоить втрое дешевле H100/H200, у нее 96 ГБ GDDR7, нет поддержки NVLink, зато есть поддержка MiG, что расширяет возможности в многопользовательских средах.

Сравнивать ускорители исключительно по выборкам табличных показателей – сомнительное дело. Всё зависит от специфики задач. Лучший вариант для тех, кто не определился – тест-драйв имеющейся модели вычислений на разных GPU. Такую услугу предоставляют облачные операторы, в частности De Novo .

 

 

H200 NVL

H100 NVL

RTX PRO 6000 SE

L40S

Архитектура

Hopper

Hopper

Blackwell

Ada Lovelace

Ядро CUDA

16 896

16 896

24 064

18 176

Тензорные ядра

528 (Gen 4)

528 (Gen 4)

752 (Gen 5)

568 (Gen 4)

Память

141 ГБ HBM3e

94 ГБ HBM3

96 ГБ GDDR7 ECC

48 ГБ GDDR6 ECC

Ее пропускная способность

4.8 ТВ/с

3.9 ТВ/с

1.597 ТВ/с

864 ГБ/с

Потребление

600 W

350-400 W

600 W

350 W

Шина

PCIe 5.0 x16

PCIe 5.0 x16

PCIe 5.0 x16

PCIe 4.0 x16

Форм-фактор

Dual slot

Dual slot

Dual slot

Dual slot

Охлаждение

Активное

Активное

Пассивное

Пассивное

Поддержка MIG

До 7 инстанций @ 18ГБ

До 7 инстанций @ 18ГБ

До 4 инстанций @24 ГБ

Нет

NVlink

Для 2 и 4 GPU

Для 2 GPU

Нет

Нет

Розничная цена

$40K

$40K

$13K

$10K

 

Платформы-компаньоны

Для развертывания современных графических ускорителей, дата-центры используют специализированные серверные платформы с поддержкой нескольких GPU, высокой вычислительной плотностью. Все ведущие производители серверного оборудования имеют линейки GPU-платформ. NVIDIA как производитель ускорителей поддерживает партнерскую экосистему и регулярно обновляет список квалифицированных серверных платформ, рекомендованных для конкретных поколений GPU. Такой каталог позволяет быстро найти оптимальное аппаратное решение с гарантированной совместимостью.

С каждым новым поколением графические процессоры становятся более мощными и, соответственно, более требовательными к энергопитанию и охлаждению. В будущем жидкостное охлаждение станет нормой не только для гиперскейлеров, но и для обычных операторов инфраструктуры. Пока что удается использовать воздушное, хотя и на грани его эффективности.

Одним из примеров сертифицированной платформы под NVIDIA H200 NVL (а также RTX PRO 6000 SE) является сервер ASUS ESC8000A-E13P – решение с высокой плотностью GPU, поддержкой масштабируемых конфигураций и адаптированным охлаждением для тяжелых нагрузок.

Кесарево - кесарево

Местные компании и облачные провайдеры не участвуют в гонках мировых богов ИИ, однако и не отстают. Они используют посильную вычислительную базу для решения локальных задач рационально и эффективно. В ближайшем будущем в наших условиях наиболее распространенными инструментами для обучения моделей, генерации контента и инференса будет такое снаряжение NVIDIA:

  • L 40 S – популярное универсальное решение для задач инференса и базового обучения нейросетей
  • RTX PRO 6000 будет постепенно вытеснять L40S в новых проектах благодаря увеличенному объему видеопамяти (96 ГБ GDDR7)
  • H 100 NVL и дальше будут покупать для масштабирования существующих инфраструктур
  • H 200 NVL – бесспорный лидер: больше памяти, выше пропускная способность, есть поддержка масштабируемых конфигураций. Идеальный выбор для тяжелых LLM.

Покупать собственный GPU-сервер или арендовать «облачко», каждый бизнес решает самостоятельно.