Помимо новых чипов безопасности и DPU, Microsoft запустила новые облачные сервисы Azure на базе оборудования Nvidia и AMD.
Спустя год после внедрения собственного ускорителя искусственного интеллекта и процессора компания Microsoft объявила, что установит в своих центрах обработки данных Azure ещё два специальных чипа, которые повысят производительность и безопасность её облачных сервисов, сообщила компания сегодня (19 ноября).
На конференции Microsoft Ignite в Чикаго технологический гигант анонсировал интегрированный аппаратный модуль безопасности Azure (HSM) — свой новейший чип внутренней облачной безопасности , который усиливает управление ключами и позволяет ключам шифрования и подписи оставаться внутри чипа.
Microsoft также анонсировала Azure Boost DPU — первое собственное устройство обработки данных компании, которое снимает нагрузку с управления сетями и хранилищами, а также включает в себя ускорители данных и функции безопасности для снижения нагрузки на центральные процессоры.
«Для конечного пользователя это означает, что ваши приложения и операционные среды стали более безопасными и работают быстрее», — сказал Мэтт Кимбалл, вице-президент и главный аналитик Moor Insights & Strategy.
По его словам , с двумя новыми собственными чипами Microsoft продолжает работу по оптимизации своей инфраструктуры и среды для удовлетворения потребностей своих клиентов в области искусственного интеллекта , аналитики и других задач, связанных с данными.
На прошлогодней конференции Ignite компания Microsoft анонсировала Microsoft Azure Maia AI Accelerator , который будет поддерживать как обучение искусственного интеллекта, так и рабочие нагрузки логического вывода в облаке, а также Cobalt 100 CPU — процессор на базе Arm, который отличается энергоэффективностью и обеспечивает хорошую производительность на ватт для рабочих нагрузок общего назначения.
Microsoft изначально запустила два процессора в начале 2024 года для поддержки сервисов Microsoft, таких как Microsoft Copilot и Azure OpenAI Service. В прошлом месяце, в октябре, Azure объявила о всеобщей доступности виртуальных машин на базе Cobalt 100 для клиентов.
Azure и другие поставщики гипермасштабных облачных услуг, такие как Amazon Web Services (AWS), Google Cloud, считают выгодным и экономически эффективным создание собственных специализированных чипов для питания собственных центров обработки данных и предоставления облачных сервисов своим клиентам. Но поставщики облачных услуг продолжают работать с крупными производителями чипов, такими как Nvidia, AMD и Intel.
На конференции Microsoft Ignite компания анонсировала новые облачные сервисы, которые будут работать на базе графического процессора нового поколения Blackwell от Nvidia и специального процессора AMD Epyc .
Суперкомпьютер Azure с искусственным интеллектом и облачные сервисы HPC
Компания Microsoft объявила о работе над запуском облачного сервиса суперкомпьютеров на базе искусственного интеллекта, который будет работать на базе систем искусственного интеллекта от Nvidia, работающих под управлением чипа Nvidia GB200 Grace Blackwell Superchip.
В частности, Microsoft заявила, что облачный сервис Azure ND GB200 v6 будет предлагать оптимизированные для ИИ виртуальные машины, которые объединяют стоечную конструкцию Nvidia GB200 NVL 72 с сетевым интерфейсом Quantum InfiniBand для подключения десятков тысяч графических процессоров Blackwell с целью предоставления клиентам производительности супервычислений на базе ИИ.
Microsoft заявила, что начинает выводить системы в онлайн и проводить совместную проверку и оптимизацию с Nvidia и другими. Компания по сути анонсировала предварительную версию облачного сервиса на базе Blackwell, но не сообщила, когда предварительная версия станет доступна клиентам.
Тем не менее, аналитики считают эту новость важной, поскольку она сигнализирует о том, что графический процессор Blackwell скоро появится на рынке.
«Все будут пытаться предлагать услуги Blackwell. Это значительный скачок в производительности по сравнению с предыдущим поколением», — сказал Джим МакГрегор, главный аналитик и партнёр Tirias Research.
Microsoft также анонсировала новый облачный сервис высокопроизводительных вычислений (HPC), который будет работать на базе специализированных процессоров AMD Epyc 9V64H, доступных только в Azure.
По словам Microsoft, специальный чип AMD, построенный на ядрах Zen4, отличается высокоскоростной памятью, которая обеспечивает до восьми раз более высокую производительность, чем другие альтернативы bare metal и cloud, и работает до 35 раз быстрее, чем устаревшие локальные системы. Новые виртуальные машины Azure HBv5 будут доступны для предварительного просмотра в 2025 году.
Аналитик Кимбалл сказал, что специальный чип AMD разработан для удовлетворения требований к мощности и производительности, которые являются уникальными для Azure. Но хотя чип уникален для Azure, практика производителя чипов, берущего один из своих процессоров и предоставляющего значительную настройку облачным провайдерам, не является уникальной, сказал Кимбалл.
Например, Intel разрабатывает специальные чипы для AWS. Фактически, две компании недавно объявили о новом многолетнем многомиллиардном партнёрстве, в рамках которого Intel будет производить специальный чип AI Fabric и специальный чип Xeon 6 для AWS.
МакГрегор отметил, что производители чипов разрабатывают собственные чипы для поставщиков облачных сервисов — это растущая тенденция, которая сохранится в ближайшие годы.
Дополнительные сведения о новом чипе безопасности Azure и DPU
Компания Microsoft заявила, что будет устанавливать чип безопасности Azure Integrated HSM на каждом новом сервере в своих центрах обработки данных, начиная с 2025 года.
Azure Integrated HSM работает со всем стеком безопасности Azure, чтобы обеспечить глубокую сквозную безопасность, сказал Кимбалл. Ранее Azure создала два других чипа безопасности: Project Cerebrus , который предоставляет корень доверия, гарантирующий безопасную среду загрузки; и Azure Security Services, который обрабатывает аутентификацию и аттестацию, что гарантирует подлинность оборудования и связанного с ним программного обеспечения, такого как драйверы, и отсутствие подделки.
«Новый чип безопасности HSM используется для управления криптографическими функциями и сохранения их всех в этой безопасной, надёжной среде», — сказал Кимбалл.
Аналитик добавил, что AWS и Google Cloud также создали собственные внутренние чипы безопасности. Nitro Security Chip от AWS и Titan от Google Cloud «различаются по объёму функций, но основная концепция одна и та же: обеспечить полностью безопасную операционную и информационную среду для миллионов пользователей, которые пользуются их услугами».
Что касается Azure Boost DPU, компания Microsoft заявила, что ожидает, что её серверы, оснащенные DPU на Azure, будут выполнять рабочие нагрузки облачного хранилища, потребляя в три раза меньше энергии и потребляя в четыре раза больше производительности по сравнению с существующими серверами.
МакГрегор заявил, что пользователям выгодно использовать DPU.
«Наличие этой возможности разгрузки для сетей и хранения для различных типов приложений может повысить эффективность серверов. Таким образом, то, что вы фактически запускаете на графических процессорах и центральных процессорах в облаке Azure, будет работать более эффективно», — отметил аналитик Tirias.
Azure Local заменяет Azure Stack HCI
Из других новостей: сегодня Microsoft также анонсировала новое решение локальной инфраструктуры Azure, которое заменяет семейство Azure Stack.
Оборудование Azure Stack HCI (гиперконвергентная инфраструктура) — это локальное оборудование, позволяющее предприятиям выполнять рабочие нагрузки внутри компании, одновременно подключаясь к облачным службам Azure.
Microsoft заявила, что Azure Local — это облачная гибридная инфраструктурная платформа, поддерживаемая Azure Arc, которая соединяет локальные среды с облаком Azure. Существующие клиенты Azure Stack HCI автоматически обновятся до Azure Local, заявила компания.
В сфере ИИ компания анонсировала новые возможности Azure AI Foundry, где организации могут проектировать, настраивать и управлять своими приложениями и агентами ИИ.
Компания заявила, что новые возможности включают Azure AI Foundry SDK, который сейчас находится в стадии предварительной версии и предоставит унифицированную цепочку инструментов для настройки, тестирования, развёртывания и управления приложениями и агентами ИИ.
Мастер пера, обрабатывает новостную ленту.