Site icon OCClub

Microsoft представила собственный ИИ-ускоритель Maia 200

Microsoft официально анонсировала свой новый фирменный ИИ-ускоритель Azure Maia 200. Это второе поколение линейки Maia — серверных процессоров, разработанных специально для ускорения инференса нейросетей в облаке Azure. Новый чип должен превзойти аналогичные решения от Amazon и Google, сделав ставку не на абсолютную мощность, а на энергоэффективность и стоимость владения.

По утверждению Microsoft, Maia 200 является самой эффективной системой инференса, когда-либо развернутой в Azure. Компания заявляет о приросте производительности на доллар на 30% по сравнению с Maia 100. При этом номинальный TDP вырос примерно на 50%, что указывает на заметные архитектурные улучшения, а не простое увеличение энергопотребления.

Архитектура и ключевые характеристики

Maia 200 производится по 3-нм техпроцессу TSMC и содержит около 140 миллиардов транзисторов. Максимальная производительность достигает 10 петафлопс в FP4, что, по заявлениям Microsoft, превосходит показатели Amazon Trainium3 в задачах инференса.

Особое внимание уделено подсистеме памяти:

Встроенная SRAM организована в многоуровневую структуру, включающую Cluster-level SRAM (CSRAM) и Tile-level SRAM (TSRAM). Благодаря этому снижается количество обращений к HBM, повышается локальность данных и улучшается общая энергоэффективность.

Сравнение с Nvidia и другими гиперскейлерами

По чистой вычислительной мощности Maia 200 уверенно опережает другие фирменные ускорители от гиперскейлеров. Однако прямое сравнение с флагманскими GPU Nvidia остается некорректным. Maia 200 недоступен для внешних покупателей, глубоко интегрирован в инфраструктуру Azure и ориентирован на строго определённые сценарии использования.

Тем не менее, в плане энергоэффективности у Maia 200 есть явное преимущество. Его TDP составляет 750 Вт, тогда как Nvidia Blackwell B300 Ultra может потреблять до 1 400 Вт. На фоне растущей критики экологического следа ИИ это становится важным аргументом в пользу решений Microsoft.

Кроме того, практика с Maia 100 показывает, что реальные рабочие показатели могут быть ниже заявленных. Хотя первый чип был рассчитан на 700 Вт, фактически он работал примерно на 500 Вт. Если Maia 200 последует этому примеру, его преимущество по эффективности станет ещё заметнее.

Назначение и ограничения

Maia 200 оптимизирован прежде всего для FP4 и FP8-нагрузок, характерных для инференса крупных языковых моделей. В результате он менее универсален, чем GPU Nvidia, рассчитанные также на обучение и смешанные типы вычислений.

Оценить реальный прогресс по сравнению с Maia 100 пока сложно. Microsoft публикует минимум пересекающихся характеристик, поэтому прямое сравнение затруднено. Тем не менее уже ясно, что Maia 200 мощнее, горячее и экономически выгоднее в расчёте на единицу производительности.

Итог

Maia 200 демонстрирует стремление Microsoft к полной вертикальной интеграции ИИ-инфраструктуры. Компания снижает зависимость от сторонних поставщиков и оптимизирует железо под собственные облачные сервисы. Хотя Nvidia по-прежнему лидирует по экосистеме и программной поддержке, Maia 200 показывает, что специализированные ускорители для инференса могут быть не менее конкурентоспособными — особенно там, где критичны энергопотребление и стоимость эксплуатации.

Подписывайтесь на наш телеграмм канал и читайте новости в удобном формате — https://t.me/occlub_ru.

Exit mobile version