Для чего нужна платформа NVIDIA HGX?
NVIDIA HGX — это не просто сервер с GPU. Это интегрированная вычислительная платформа, спроектированная под задачи, где обычных GPU-серверов уже недостаточно. Её архитектура объединяет до 8 ускорителей NVIDIA в единый вычислительный узел с общей высокоскоростной шиной NVLink, что позволяет обрабатывать задачи, требующие терабайтных объёмов памяти и петафлопной производительности.
Где применяется HGX
Примеры применения: дообучение LLaMA 3 и Mistral на корпоративных данных, предобучение GPT-подобных моделей с нуля, тренировка мультимодальных моделей (текст + изображение), RLHF (Reinforcement Learning from Human Feedback), дистилляция больших моделей в компактные.
Генеративные модели работают в продакшне в режиме 24/7 и требуют устойчивой высокой пропускной способности. HGX обеспечивает параллельную обработку запросов без деградации latency даже при пиковой нагрузке — критически важно для коммерческих ИИ-сервисов.
Примеры применения: генерация изображений и видео (Stable Diffusion, Sora-подобные модели), синтез речи и клонирование голоса, автоматизация создания контента для маркетинга, системы генерации кода, персонализированные рекомендательные движки.
Обученная модель должна отвечать тысячам пользователей в реальном времени. Для инференса больших моделей нужны платформы с тем же уровнем памяти, что и для обучения. HGX с оптимизированным TensorRT обеспечивает throughput выше традиционных GPU-серверов в 3–5 раз.
Примеры применения: продуктивные чат-боты и голосовые ассистенты, real-time транскрипция и перевод, медицинская диагностика по медицинским изображениям, fraud detection в банковских системах, прогнозная аналитика в ретейле.
Научные вычисления и инженерное моделирование требуют работы с гигантскими массивами данных, которые не умещаются в память одного GPU. HGX решает эту задачу благодаря унифицированной памяти и высочайшей межускорительной пропускной способности через NVSwitch.
Примеры применения: молекулярная динамика (AlphaFold, GROMACS), вычислительная гидродинамика (CFD-симуляции), климатическое и геофизическое моделирование, квантовая химия и материаловедение, рендеринг в VFX-производстве (Blender, Arnold).
Технические характеристики HGX
Конфигурации
- Сервер Dell XE9680 6U с воздушным охлаждением
- 2× Intel Xeon Scalable Gen4/5 (до 64 ядер)
- 32× DDR5 4800/5600 MHz RDIMM — до 2 ТБ памяти
- Поддержка до 8× GPU: NVIDIA H200 141GB SXM, AMD Instinct MI300X 192GB OAM или Intel Gaudi 3 128GB
- До 8× SATA/SAS/NVMe накопителей
Прорывная связность GPU
- NVLink — сверхбыстрая шина, объединяющая видеокарты в единый пул ресурсов;
- Пропускная способность до 900 ТБ/с на GPU H200;
- Прямая работа с общей памятью без перегрузки CPU;
- Масштабирование — от 8 GPU в сервере до сотен GPU в одной системе через NVLink Switch.
Архитектура NVIDIA SuperPOD
- Сотни GPU объединяются в единую систему с общей памятью;
- Сеть NDR 400 Gbps InfiniBand с минимальными задержками;
- Производительность: десятки ТБ/с на уровне стойки;
- Программный стек: NVIDIA Base Command + AI Enterprise.
Реальные задачи, которые решает HGX
LLM GPT-3 (175B параметров, FP16=700GB VRAM) — полностью помещается в память одного HGX-сервера;
Stable Diffusion XL — обучение на гигантских датасетах и тысячный инференс изображений в секунду;
CFD, MD — симуляции с миллиардами элементов для аэродинамики и фармацевтики.
Спецификации NVIDIA HGX
| Характеристики | HGX B300 | HGX B200 |
|---|---|---|
| Форм-фактор | 8x NVIDIA Blackwell Ultra SXM | 8x NVIDIA Blackwell SXM |
| FP4 Tensor Core | 144 PFLOPS | 105 PFLOPS | 144 PFLOPS | 72 PFLOPS |
| FP8/FP6 Tensor Core | 72 PFLOPS | 72 PFLOPS |
| INT8 Tensor Core | 2 POPS | 72 POPS |
| FP16/BF16 Tensor Core | 36 PFLOPS | 36 PFLOPS |
| TF32 Tensor Core | 18 PFLOPS | 18 PFLOPS |
| FP32 | 600 TFLOPS | 600 TFLOPS |
| FP64/FP64 Tensor Core | 10 TFLOPS | 296 TFLOPS |
| Общий объем памяти | До 2,3 ТБ | 1,4 ТБ |
| NVLink | 5 поколение | 5 поколение |
| NVIDIA NVSwitch™ | NVLink 5 Switch | NVLink 5 Switch |
| Пропускная способность NVSwitch GPU-GPU | 1,8 ТБ/с | 1,8 ТБ/с |
| Общая пропускная способность NVLink | 14,4 ТБ/с | 14,4 ТБ/с |
| Пропускная способность сети | 1,6 ТБ/с | 0,8 ТБ/с |
| Характеристики |
HGX H200 (4-GPU) |
HGX H200 (8-GPU) |
HGX H100 (4-GPU) |
HGX H100 (8-GPU) |
|---|---|---|---|---|
| Форм-фактор | 4x NVIDIA H200 SXM | 8x NVIDIA H200 SXM | 4x NVIDIA H100 SXM | 8x NVIDIA H100 SXM |
| FP8 Tensor Core | 16 PFLOPS | 32 PFLOPS | 16 PFLOPS | 32 PFLOPS |
| INT8 Tensor Core | 16 POPS | 32 POPS | 16 POPS | 32 POPS |
| FP16/BF16 Tensor Core | 8 PFLOPS | 16 PFLOPS | 8 PFLOPS | 16 PFLOPS |
| TF32 Tensor Core | 4 PFLOPS | 8 PFLOPS | 4 PFLOPS | 8 PFLOPS |
| FP32 | 270 TFLOPS | 540 TFLOPS | 270 TFLOPS | 540 TFLOPS |
| FP64 | 140 TFLOPS | 270 TFLOPS | 140 TFLOPS | 270 TFLOPS |
| FP64 Tensor Core | 270 TFLOPS | 540 TFLOPS | 270 TFLOPS | 540 TFLOPS |
| Общий объем памяти | 564 ГБ HBM3 | 1.1 ТБ HBM3 | 320 ГБ HBM3 | 640 ГБ HBM3 |
| Суммарная пропускная способность GPU | 19 ГБ/с | 38 ГБ/с | 13 ГБ/с | 27 ГБ/с |
| NVLink | 4 поколение | 4 поколение | 4 поколение | 4 поколение |
| NVSwitch | Н/Д | NVLink 4 Switch | Н/Д | NVLink 4 Switch |
| Пропускная способность NVSwitch GPU-GPU | Н/Д | 900 ГБ/с | Н/Д | 900 ГБ/с |
| Общая суммарная пропускная способность | 3,6 ТБ/с | 7,2 ТБ/с | 3,6 ТБ/с | 7,2 ТБ/с |
| Пропускная способность сети | 0,4 ТБ/с | 0,8 ТБ/с | 0,4 ТБ/с | 0,8 ТБ/с |
ITGLOBAL.COM — верный выбор поставщика
Более 15 лет на рынке корпоративной ИТ-инфраструктуры. Мы не просто поставляем серверы — мы проектируем, интегрируем и поддерживаем GPU-инфраструктуру от ТЗ до запуска в продакшн.
Авторизованный партнёр NVIDIA
Официальный статус позволяет нам поставлять платформы HGX в Россию по прямым каналам. Гарантированное соответствие оригинального оборудования и поддержка производителя
Проектирование «под ключ»
Подбираем конфигурацию HGX (H100, H200, B200, B300) под вашу задачу, рассчитываем питание и охлаждение, разрабатываем схему интеграции в существующую инфраструктуру
Поставка в сжатые сроки
Собственный склад и отлаженная логистика позволяют сократить время от заявки до ввода оборудования в эксплуатацию. Работаем с таможней и сертификацией самостоятельно
Поддержка 24/7/365
Собственный NOC и выделенные инженеры по GPU-инфраструктуре. SLA до 4 часов на выезд, удалённый мониторинг и превентивное обслуживание платформ
Гибкие модели потребления
Продажа, аренда, аренда суперкомпьютера на базе SuperPOD — выбирайте модель под ваш бюджет и горизонт планирования. Лизинговые схемы и рассрочка доступны
Экспертиза в ML/AI-инфраструктуре
Инженеры с сертификациями NVIDIA DLI, опыт развёртывания кластеров для обучения LLM, настройки NCCL, InfiniBand и оптимизации GPU-утилизации под production-нагрузки
FAQ
Обычный GPU-сервер объединяет несколько ускорителей через шину PCIe, пропускная способность которой ограничена 64 ГБ/с. Платформа HGX использует технологию NVLink и коммутационную матрицу NVSwitch, обеспечивая связность до 900 ГБ/с между всеми 8 GPU в узле. Фактически все 8 ускорителей работают как единый вычислительный ресурс с общей памятью — это принципиально отличает HGX от набора серверов с видеокартами и делает платформу незаменимой для задач LLM-обучения и HPC.
ITGLOBAL.COM поставляет платформы на базе всех актуальных поколений: HGX H100 (архитектура Hopper, 80 ГБ HBM3 на ускоритель, до 640 ГБ в узле), HGX H200 (141 ГБ HBM3e, до 1,1 ТБ), HGX B200 (архитектура Blackwell, 192 ГБ HBM3e, до 1,4 ТБ) и HGX B300. Выбор конфигурации зависит от вашей задачи, бюджета и горизонта использования — наши инженеры помогут с подбором.
Да. ITGLOBAL.COM предлагает несколько моделей: аренда выделенных GPU-серверов с HGX (bare-metal), аренда суперкомпьютера на базе NVIDIA SuperPOD, а также облачные GPU-серверы по модели GPU Cloud. Аренда подходит для стартовых и проектных задач, когда закупка собственного оборудования нецелесообразна. Минимальный период аренды и условия SLA уточняйте у менеджера.
NVSwitch — это специализированный коммутатор NVIDIA, обеспечивающий полносвязную топологию между всеми GPU в системе HGX. В отличие от традиционных топологий «кольцо» или «дерево», NVSwitch создаёт матрицу «каждый с каждым» — любые два ускорителя в узле соединены напрямую с максимальной пропускной способностью NVLink. Это критично при distributed training крупных моделей, где постоянный обмен градиентами между GPU является основным узким местом. В платформе HGX H100/H200 используется третье поколение NVSwitch, обеспечивающее 57,6 Тб/с бисекционной пропускной способности.
Сервер HGX H100 SXM5 с 8 GPU потребляет до 10,2 кВт в режиме TDP (700 Вт × 8 GPU плюс компоненты платформы). Это предъявляет высокие требования к PDU, системе охлаждения и инфраструктуре ЦОД. Рекомендуется жидкостное охлаждение или прецизионное кондиционирование. ITGLOBAL.COM проводит аудит готовности площадки, при необходимости — проектирует инженерные решения ЦОД под новое оборудование.
Стоимость платформы HGX зависит от поколения GPU (H100, H200, B200, B300), конфигурации памяти, типа хоста и объёма поставки. Цены формируются индивидуально с учётом текущего курса и логистики. Для получения актуального коммерческого предложения оставьте заявку — менеджер свяжется в ближайшее время и подготовит расчёт под вашу задачу.