Nvidia GTC: процессор Hopper запущен в серийное производство
Графический процессор H100 Tensor Core находится в полном производстве, а первые серверы на базе новой архитектуры Nvidia Hopper должны появиться в следующем месяце.
Nvidia начала свою вторую конференцию GTC в этом году с новости о том, что ее поколение графических процессоров H100 «Hopper» находится в полном производстве, а глобальные партнеры планируют выпустить продукты и услуги в октябре, а широкую доступность — в первом квартале 2023 года.
Hopper имеет ряд инноваций по сравнению с Ampere, его предшественницей, представленной в 2020 году. Наиболее важным из них является новый двигатель Transformer. Преобразователи — это широко используемые модели глубокого обучения и стандартная модель выбора для обработки естественного языка. Nvidia утверждает, что H100 Transformer Engine может ускорить нейронные сети в шесть раз по сравнению с Ampere без потери точности.
Hopper также поставляется со вторым поколением технологии Nvidia Secure Multi-Instance GPU (MIG), позволяющей разделить один GPU на несколько защищенных разделов, которые работают независимо и изолированно.
Также новой является функция, называемая конфиденциальными вычислениями, которая защищает модели ИИ и данные клиентов во время их обработки, а также защищает их в состоянии покоя и при передаче по сети. Наконец, у Hopper есть NVLink четвертого поколения, технология высокоскоростного соединения Nvidia, которая может подключать до 256 графических процессоров H100 с пропускной способностью в девять раз выше, чем у предыдущего поколения.
И хотя графические процессоры не славятся своей энергоэффективностью, H100 позволяет компаниям обеспечивать ту же производительность ИИ при 3,5-кратном повышении энергоэффективности и 3-кратном снижении совокупной стоимости владения по сравнению с предыдущим поколением, поскольку предприятиям требуется в 5 раз меньше серверных узлов.
«Наши клиенты хотят развернуть центры обработки данных, которые в основном представляют собой фабрики ИИ, производящие ИИ для производственных сценариев использования. И мы очень рады видеть, что H100 будет делать для этих клиентов, обеспечивая большую пропускную способность, больше возможностей и [продолжая] демократизировать ИИ во всем мире», — сказал Ян Бак, вице-президент по гипермасштабированию и высокопроизводительным вычислениям в Nvidia. медиа-звонок с журналистами.
Бак, который изобрел язык CUDA, используемый для программирования графических процессоров Nvidia для высокопроизводительных вычислений и других целей, сказал, что модели больших языков (LLM) будут одним из наиболее важных вариантов использования ИИ для H100.