Серверная платформа NVIDIA HGX

Комплексная ускоренная вычислительная платформа для искусственного интеллекта и высокопроизводительных вычислений

Серверная платформа NVIDIA HGX

B300 | B200

Архитектура Blackwell

H200 | H100

Архитектура Hopper

Для чего нужна платформа NVIDIA HGX?

NVIDIA HGX — это не просто сервер с GPU. Это интегрированная вычислительная платформа, спроектированная под задачи, где обычных GPU-серверов уже недостаточно. Её архитектура объединяет до 8 ускорителей NVIDIA в единый вычислительный узел с общей высокоскоростной шиной NVLink, что позволяет обрабатывать задачи, требующие терабайтных объёмов памяти и петафлопной производительности.

Где применяется HGX

Платформа HGX — стандарт де-факто для тренировки крупных языковых моделей. Архитектура NVLink позволяет GPU работать как единый ускоритель с объединённой памятью до 640 ГБ (HBM3 на H100) или до 1,4 ТБ (HBM3e на B200). Это устраняет необходимость «шардировать» модель между узлами на начальных этапах обучения.

Примеры применения: дообучение LLaMA 3 и Mistral на корпоративных данных, предобучение GPT-подобных моделей с нуля, тренировка мультимодальных моделей (текст + изображение), RLHF (Reinforcement Learning from Human Feedback), дистилляция больших моделей в компактные.

Генеративные модели работают в продакшне в режиме 24/7 и требуют устойчивой высокой пропускной способности. HGX обеспечивает параллельную обработку запросов без деградации latency даже при пиковой нагрузке — критически важно для коммерческих ИИ-сервисов.

Примеры применения: генерация изображений и видео (Stable Diffusion, Sora-подобные модели), синтез речи и клонирование голоса, автоматизация создания контента для маркетинга, системы генерации кода, персонализированные рекомендательные движки.

Обученная модель должна отвечать тысячам пользователей в реальном времени. Для инференса больших моделей нужны платформы с тем же уровнем памяти, что и для обучения. HGX с оптимизированным TensorRT обеспечивает throughput выше традиционных GPU-серверов в 3–5 раз.

Примеры применения: продуктивные чат-боты и голосовые ассистенты, real-time транскрипция и перевод, медицинская диагностика по медицинским изображениям, fraud detection в банковских системах, прогнозная аналитика в ретейле.

Научные вычисления и инженерное моделирование требуют работы с гигантскими массивами данных, которые не умещаются в память одного GPU. HGX решает эту задачу благодаря унифицированной памяти и высочайшей межускорительной пропускной способности через NVSwitch.

Примеры применения: молекулярная динамика (AlphaFold, GROMACS), вычислительная гидродинамика (CFD-симуляции), климатическое и геофизическое моделирование, квантовая химия и материаловедение, рендеринг в VFX-производстве (Blender, Arnold).

Запросить консультацию технического специалиста

Технические характеристики HGX

Конфигурации

  • Сервер Dell XE9680 6U с воздушным охлаждением
  • 2× Intel Xeon Scalable Gen4/5 (до 64 ядер)
  • 32× DDR5 4800/5600 MHz RDIMM — до 2 ТБ памяти
  • Поддержка до 8× GPU: NVIDIA H200 141GB SXM, AMD Instinct MI300X 192GB OAM или Intel Gaudi 3 128GB
  • До 8× SATA/SAS/NVMe накопителей

Прорывная связность GPU

  • NVLink — сверхбыстрая шина, объединяющая видеокарты в единый пул ресурсов;
  • Пропускная способность до 900 ТБ/с на GPU H200;
  • Прямая работа с общей памятью без перегрузки CPU;
  • Масштабирование — от 8 GPU в сервере до сотен GPU в одной системе через NVLink Switch.

Архитектура NVIDIA SuperPOD

  • Сотни GPU объединяются в единую систему с общей памятью;
  • Сеть NDR 400 Gbps InfiniBand с минимальными задержками;
  • Производительность: десятки ТБ/с на уровне стойки;
  • Программный стек: NVIDIA Base Command + AI Enterprise.

Реальные задачи, которые решает HGX

LLM GPT-3 (175B параметров, FP16=700GB VRAM) — полностью помещается в память одного HGX-сервера;

Stable Diffusion XL — обучение на гигантских датасетах и тысячный инференс изображений в секунду;

CFD, MD — симуляции с миллиардами элементов для аэродинамики и фармацевтики.

Спецификации NVIDIA HGX

Характеристики HGX B300 HGX B200
Форм-фактор 8x NVIDIA Blackwell Ultra SXM 8x NVIDIA Blackwell SXM
FP4 Tensor Core 144 PFLOPS | 105 PFLOPS 144 PFLOPS | 72 PFLOPS
FP8/FP6 Tensor Core 72 PFLOPS 72 PFLOPS
INT8 Tensor Core 2 POPS 72 POPS
FP16/BF16 Tensor Core 36 PFLOPS 36 PFLOPS
TF32 Tensor Core 18 PFLOPS 18 PFLOPS
FP32 600 TFLOPS 600 TFLOPS
FP64/FP64 Tensor Core 10 TFLOPS 296 TFLOPS
Общий объем памяти До 2,3 ТБ 1,4 ТБ
NVLink 5 поколение 5 поколение
NVIDIA NVSwitch™ NVLink 5 Switch NVLink 5 Switch
Пропускная способность NVSwitch GPU-GPU 1,8 ТБ/с 1,8 ТБ/с
Общая пропускная способность NVLink 14,4 ТБ/с 14,4 ТБ/с
Пропускная способность сети 1,6 ТБ/с 0,8 ТБ/с
Характеристики HGX H200
(4-GPU)
HGX H200
(8-GPU)
HGX H100
(4-GPU)
HGX H100
(8-GPU)
Форм-фактор 4x NVIDIA H200 SXM 8x NVIDIA H200 SXM 4x NVIDIA H100 SXM 8x NVIDIA H100 SXM
FP8 Tensor Core 16 PFLOPS 32 PFLOPS 16 PFLOPS 32 PFLOPS
INT8 Tensor Core 16 POPS 32 POPS 16 POPS 32 POPS
FP16/BF16 Tensor Core 8 PFLOPS 16 PFLOPS 8 PFLOPS 16 PFLOPS
TF32 Tensor Core 4 PFLOPS 8 PFLOPS 4 PFLOPS 8 PFLOPS
FP32 270 TFLOPS 540 TFLOPS 270 TFLOPS 540 TFLOPS
FP64 140 TFLOPS 270 TFLOPS 140 TFLOPS 270 TFLOPS
FP64 Tensor Core 270 TFLOPS 540 TFLOPS 270 TFLOPS 540 TFLOPS
Общий объем памяти 564 ГБ HBM3 1.1 ТБ HBM3 320 ГБ HBM3 640 ГБ HBM3
Суммарная пропускная способность GPU 19 ГБ/с 38 ГБ/с 13 ГБ/с 27 ГБ/с
NVLink 4 поколение 4 поколение 4 поколение 4 поколение
NVSwitch Н/Д NVLink 4 Switch Н/Д NVLink 4 Switch
Пропускная способность NVSwitch GPU-GPU Н/Д 900 ГБ/с Н/Д 900 ГБ/с
Общая суммарная пропускная способность 3,6 ТБ/с 7,2 ТБ/с 3,6 ТБ/с 7,2 ТБ/с
Пропускная способность сети 0,4 ТБ/с 0,8 ТБ/с 0,4 ТБ/с 0,8 ТБ/с

ITGLOBAL.COM — верный выбор поставщика

Более 15 лет на рынке корпоративной ИТ-инфраструктуры. Мы не просто поставляем серверы — мы проектируем, интегрируем и поддерживаем GPU-инфраструктуру от ТЗ до запуска в продакшн.

Авторизованный партнёр NVIDIA

Официальный статус позволяет нам поставлять платформы HGX в Россию по прямым каналам. Гарантированное соответствие оригинального оборудования и поддержка производителя

Проектирование «под ключ»

Подбираем конфигурацию HGX (H100, H200, B200, B300) под вашу задачу, рассчитываем питание и охлаждение, разрабатываем схему интеграции в существующую инфраструктуру

Поставка в сжатые сроки

Собственный склад и отлаженная логистика позволяют сократить время от заявки до ввода оборудования в эксплуатацию. Работаем с таможней и сертификацией самостоятельно

Поддержка 24/7/365

Собственный NOC и выделенные инженеры по GPU-инфраструктуре. SLA до 4 часов на выезд, удалённый мониторинг и превентивное обслуживание платформ

Гибкие модели потребления

Продажа, аренда, аренда суперкомпьютера на базе SuperPOD — выбирайте модель под ваш бюджет и горизонт планирования. Лизинговые схемы и рассрочка доступны

Экспертиза в ML/AI-инфраструктуре

Инженеры с сертификациями NVIDIA DLI, опыт развёртывания кластеров для обучения LLM, настройки NCCL, InfiniBand и оптимизации GPU-утилизации под production-нагрузки

Серверная платформа NVIDIA HGX от ITGLOBAL.COM

FAQ

Обычный GPU-сервер объединяет несколько ускорителей через шину PCIe, пропускная способность которой ограничена 64 ГБ/с. Платформа HGX использует технологию NVLink и коммутационную матрицу NVSwitch, обеспечивая связность до 900 ГБ/с между всеми 8 GPU в узле. Фактически все 8 ускорителей работают как единый вычислительный ресурс с общей памятью — это принципиально отличает HGX от набора серверов с видеокартами и делает платформу незаменимой для задач LLM-обучения и HPC.

ITGLOBAL.COM поставляет платформы на базе всех актуальных поколений: HGX H100 (архитектура Hopper, 80 ГБ HBM3 на ускоритель, до 640 ГБ в узле), HGX H200 (141 ГБ HBM3e, до 1,1 ТБ), HGX B200 (архитектура Blackwell, 192 ГБ HBM3e, до 1,4 ТБ) и HGX B300. Выбор конфигурации зависит от вашей задачи, бюджета и горизонта использования — наши инженеры помогут с подбором.

Да. ITGLOBAL.COM предлагает несколько моделей: аренда выделенных GPU-серверов с HGX (bare-metal), аренда суперкомпьютера на базе NVIDIA SuperPOD, а также облачные GPU-серверы по модели GPU Cloud. Аренда подходит для стартовых и проектных задач, когда закупка собственного оборудования нецелесообразна. Минимальный период аренды и условия SLA уточняйте у менеджера.

NVSwitch — это специализированный коммутатор NVIDIA, обеспечивающий полносвязную топологию между всеми GPU в системе HGX. В отличие от традиционных топологий «кольцо» или «дерево», NVSwitch создаёт матрицу «каждый с каждым» — любые два ускорителя в узле соединены напрямую с максимальной пропускной способностью NVLink. Это критично при distributed training крупных моделей, где постоянный обмен градиентами между GPU является основным узким местом. В платформе HGX H100/H200 используется третье поколение NVSwitch, обеспечивающее 57,6 Тб/с бисекционной пропускной способности.

Сервер HGX H100 SXM5 с 8 GPU потребляет до 10,2 кВт в режиме TDP (700 Вт × 8 GPU плюс компоненты платформы). Это предъявляет высокие требования к PDU, системе охлаждения и инфраструктуре ЦОД. Рекомендуется жидкостное охлаждение или прецизионное кондиционирование. ITGLOBAL.COM проводит аудит готовности площадки, при необходимости — проектирует инженерные решения ЦОД под новое оборудование.

Стоимость платформы HGX зависит от поколения GPU (H100, H200, B200, B300), конфигурации памяти, типа хоста и объёма поставки. Цены формируются индивидуально с учётом текущего курса и логистики. Для получения актуального коммерческого предложения оставьте заявку — менеджер свяжется в ближайшее время и подготовит расчёт под вашу задачу.