Новый отраслевой стандарт для облачных вычислений в области искусственного интеллекта

НА ОСНОВЕ ГРАФИЧЕСКИХ КАРТ NVIDIA P100 И ИНТЕРФЕЙСА NVLINK

ГИПЕРМАСШТАБИРУЕМЫЙ УСКОРИТЕЛЬ HGX-1 ДЛЯ ОБЛАЧНЫХ ВЫЧИСЛЕНИЙ В ОБЛАСТИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

Система HGX-1 построена на основе графических ускорителей NVIDIA® Tesla® P100, которые связаны между собой высокоскоростным интерфейсом NVIDIA® NVLink™. Ее создание обусловлено тем, что вычисления для задач искусственного интеллекта, начиная от автономного вождения и оказания индивидуализированной медицинской помощи и заканчивая сверхточным распознаванием человеческой речи, все чаще выполняются в облаке.

Data Center HGX NVLINK

Специально разработанная для облачных вычислений, система HGX-1 обеспечивает революционную производительность в комбинации с беспрецедентной конфигурируемостью. Для обеспечения первоклассной производительности система использует восемь графических карт NVIDIA Tesla P100, объединенных между собой новым высокоскоростным интерфейсом NVLink, который был представлен вместе с суперкомпьютером DGX-1. Инновационная архитектура PCIe позволяет CPU динамически подключаться практически к любому числу GPU. Благодаря этому провайдеры облачных услуг, принявшие за стандарт инфраструктуру HGX-1, смогут предоставлять своим пользователям разные инстансы на основе CPU и GPU. А стандартная архитектура NVLINK позволит использовать богатую экосистему программного обеспечения, оптимизированного под GPU, для прозрачного ускорения алгоритмов искусственного интеллекта и других задач.

С HGX-1 гипермасштабируемые дата-центры смогут обеспечить оптимальную производительность практически для любых задач, требующих ускорения на GPU, включая тренировку алгоритмов глубокого обучения, инференс, анализ данных и высокопроизводительные вычисления. В задачах глубокого обучения система работает до 100 раз быстрее по сравнению с CPU-серверами предыдущего поколения. По оценкам, расходы на инфраструктуру новой системы составляют одну пятую от затрат на обучение алгоритмов ИИ и одну десятую от проведения инференса на традиционных серверах.

Благодаря своей модульной конструкции, ускоритель HGX-1 можно развернуть в существующих дата-центрах по всему миру, делая их пригодными для вычислений в области искусственного интеллекта за счет гипермасштабируемости.

 

Kushagra Vaid GM

Ускоритель HGX-1 обеспечивает экстремальную масштабируемость производительности, чтобы справляться с растущими нагрузками машинного обучения. Уникальная конструкция ускорителя позволит с легкостью внедрять его в существующие дата-центры по всему миру.

— Кушагра Ваид (Kushagra Vaid), директор подразделения аппаратной инфраструктуры Azure в Microsoft

Jen-Hsun Huang

Искусственный интеллект – новая вычислительная модель, требующая новой архитектуры. Гипермасштабируемый ускоритель HGX-1 будет иметь такое же значение для облачных вычислений в области искусственного интеллекта, как и стандарт ATX для персональных компьютеров, сделавший их сегодня доступными повсеместно. Это позволит провайдерам облачных услуг с легкостью внедрять в свои решения графические процессоры NVIDIA, чтобы удовлетворить растущий спрос на вычисления в области искусственного интеллекта.

— Дженсен Хуанг (Jensen Huang), соучредитель и генеральный директор NVIDIA

Партнерская программа NVIDIA HGX

В целях быстрого развития облачных вычислений в области искусственного интеллекта NVIDIA предоставляет ведущим мировым ODM производителям, включая Foxconn/Ingrasys, Inventec, Quanta и Wistron, ранний доступ к референсной архитектуре NVIDIA HGX, технологиям NVIDIA GPU и руководствам по проектированию.

QCT-Logo-Core-Vertical-RGB-NoMargin
Quanta-Computer
Inventec_en
Wlogo_BG_Gi_R
FOXCONN

ПОДПИШИТЕСЬ НА НОВОСТНУЮ РАССЫЛКУ ПО РЕШЕНИЯМ ДЛЯ ДАТА-ЦЕНТРОВ

Узнавайте самые свежие и актуальные новости в области высокопроизводительных вычислений, глубокого обучения и искусственного интеллекта.