NVIDIA HGX-2

На основе GPU NVIDIA Tesla V100 с интерфейсом NVSwitch

САМАЯ ПРОИЗВОДИТЕЛЬНАЯ В МИРЕ ПЛАТФОРМА С ПОДДЕРЖКОЙ ВЫЧИСЛЕНИЙ ПРОИЗВОЛЬНОЙ ТОЧНОСТИ ДЛЯ ЗАДАЧ ИИ И HPC

Мы находимся на заре эпохи, в которой искусственный интеллект и высокопроизводительные вычисления (HPC) трансформируют наш мир. От беспилотных автомобилей до моделирования глобального климата – перед нами встают новые задачи, решение которых требует огромных вычислительных ресурсов. Платформа NVIDIA HGX-2 the world’s most powerful cloud server platform разработана с поддержкой вычислений произвольной точности. to solve these massive challenges. -- Она обеспечивает производительность для вычислений высокой точности для научных исследований andи поддерживает вычисления низкой точности для задач ИИ. – HGX-2 представляет собой  унифицированную, гибкую и производительную платформу для решения любых задач.

«Самый крупный в мире GPU»

Платформа HGX-2 оснащается 16 GPU NVIDIA® Tesla® V100 с интерфейсом NVIDIA NVSwitch и обеспечивает непревзойденные вычислительные возможности, пропускную способность и топологию памяти для более быстрого и эффективного обучения моделей нейросетей. 16 GPU Tesla V100 работают как единый двухпетафлопсный ускоритель с общим объемом памяти 0,5 терабайта (TB). Подобная конфигурация позволяет справляться с задачами, требующими огромного объема вычислений, и представляет собой «крупнейший в мире GPU».

Крупнейший в мире GPU
Тренировка ИИ: HGX-2 заменяет 300 серверов на базе CPU

Повышение производительности искусственного интеллекта нового поколения

Сложность моделей искусственного интеллекта растет, и для их работы требуется большой объем памяти и использование нескольких GPU с невероятно высокой скоростью взаимодействия. Благодаря интерфейсу NVSwitch, объединяющему все GPU, и унифицированной памяти, HGX-2 обеспечивает необходимую мощность для ускоренной тренировки искусственного интеллекта. Сервер HGX-2 способен заменить 300 серверов на базе CPU, что ведет к значительной экономии расходов, пространства и энергопотребления в дата-центре.

HPC: HGX-2 заменяет 60 серверных узлов на базе CPU

Высокопроизводительный «суперузел» для HPC

Работа с HPC приложениями требует использования серверных узлов с высокой скоростью взаимодействия, способных обеспечивать выполнение большого числа операций в секунду. Повышение вычислительной плотности каждого узла значительно сокращает число требуемых серверов, приводя к серьезной экономии расходов, энергии и пространства в дата-центре. Перемножение матриц большой размерности во время HPC моделирования требует постоянной передачи данных между большим числом соседних процессоров, что делает конфигурацию GPU, объединенных интерфейсом NVSwitch, идеальным решением. Один сервер HGX-2 заменяет 60 серверов на базе CPU.

NVSwitch для вычислений с максимальной скоростью взаимодействия

Технология NVSwitch обеспечивает взаимодействие всех GPU со скоростью 2,4 ТБ/с, позволяя решать самые сложные задачи в области искусственного интеллекта и HPC. Каждый GPU имеет доступ к унифицированной HBM2 памяти объемом 0,5 ТБ для работы с самыми крупными массивами данных. NVSwitch позволяет создавать унифицированные серверные узлы, значительно повышая производительность приложений для искусственного интеллекта и HPC.

NVSwitch для вычислений с максимальной скоростью взаимодействия

Спецификации

HGX-1 HGX-2
Производительность 1 петафлопс в тензорных операциях
125 терафлопс в операциях одинарной точности
62 терафлопс в операциях двойной точности
2 петафлопс в тензорных операциях
250 терафлопс в операциях одинарной точности
125 терафлопс в операциях двойной точности
GPU 8 GPU NVIDIA Tesla V100 16 GPU NVIDIA Tesla V100
Объем памяти 256 ГБ 512 ГБ
NVIDIA CUDA® Cores 40,960 81,920
Ядра Tensor Cores 5,120 10,240
Канал передачи данных Топология Hybrid cube mesh на основе интерфейса NVLink с общей пропускной способностью 300 ГБ/с общей пропускной способности NVSwitch на основе технологии NVLink 2.4 ТБ/с общей пропускной пособсности

Эталонная архитектура HGX-1

На основе GPU NVIDIA Tesla, объединенных интерфейсом NVLink

NVIDIA HGX-1 – референсная архитектура, ставшая стандартом проектирования дата-центров, предназначенных для ускорения ИИ в облаке. Архитектура HGX-1 основывается на восьми картах Tesla V100 в форм-факторе SXM2, объединенных в топологию гибридной сетки куба (hybrid cube mesh) для масштабируемости, и обладает вычислительной мощностью в 1 петафлопс. Модульный дизайн архитектуры идеально вписывается в существующие гипермасштабируемые дата-центры и предлагает простой и быстрый путь к созданию ИИ.

Экосистема дата-центров

NVIDIA сотрудничает с ведущими мировыми производителями, чтобы способствовать быстрому развитию облачных вычислений для искусственного интеллекта. NVIDIA предоставляет своим партнерам платы для GPU, рекомендации по проектированию и ранний доступ к вычислительным технологиям для интеграции архитектуры на уровне экосистемы серверов для дата-центров.

Экосистема дата-центров

Подпишитесь на новостную рассылку по решениям для дата-центров.

Узнавайте самые свежие и актуальные новости в области высокопроизводительных вычислений, глубокого обучения и искусственного интеллекта.