https://mybryansk.ru/news/id-112858-microsoft-nachala-razvertyvanie-sobstvennogo-ai-uskoritelja-maia-200
Microsoft начала развёртывание собственного AI-ускорителя Maia 200
Microsoft начала использовать собственный ускоритель в дата-центрах Azure, делая ставку на комбинированную модель работы с AI-железом.
Microsoft начала развёртывание собственного AI-ускорителя Maia 200
Microsoft начала использовать собственный ускоритель в дата-центрах Azure, делая ставку на комбинированную модель работы с AI-железом.
2026-02-01T13:13+03:00
2026-02-01T13:13+03:00
2026-02-01T13:13+03:00
/html/head/meta[@name='og:title']/@content
/html/head/meta[@name='og:description']/@content
https://mybryansk.ru/uploads/prew/inner_webp/ryiQIO5nxZ2ZGlv7C7E.WEBP
Microsoft начала разворачивать в своих дата-центрах первые партии ускорителя Maia 200 — собственного чипа для задач искусственного интеллекта. При этом компания подчёркивает, что запуск собственного «железа» не означает отказ от сотрудничества с внешними поставщиками. В инфраструктуре Microsoft по-прежнему будут использоваться решения Nvidia и AMD, отмечает портал «boda».Генеральный директор Microsoft Сатья Наделла дал понять, что партнёрства с ведущими производителями чипов остаются важной частью стратегии компании. Он отметил, что Nvidia и AMD продолжают активно развивать свои продукты, а Microsoft не рассматривает вертикальную интеграцию как единственно возможный путь.Maia 200 позиционируется как ускоритель, ориентированный прежде всего на инференс — выполнение моделей в рабочих сценариях. В Microsoft указывают, что чип разработан для повышения эффективности генерации токенов и снижения затрат. Он выпускается по 3-нм техпроцессу TSMC, поддерживает вычисления FP8 и FP4 и оснащён памятью HBM3e объёмом 216 ГБ с высокой пропускной способностью.Компания также приводит сравнения с решениями конкурентов, заявляя преимущество Maia 200 по FP4-производительности относительно Amazon Trainium третьего поколения и более высокую FP8-производительность по сравнению с TPU седьмого поколения от Google.Первым регионом, где Maia 200 уже работает, стал Azure US Central в Айове. Следующим заявлен регион US West 3 в Аризоне, после чего Microsoft планирует расширять географию размещения ускорителя. Чип будет использоваться для поддержки моделей OpenAI в Azure, а также в сервисах Microsoft Foundry и Microsoft 365 Copilot.Отдельный приоритет получит внутренняя команда Microsoft Superintelligence, занимающаяся разработкой перспективных моделей. В компании уточняют, что Maia 200 планируется применять для генерации синтетических данных и задач reinforcement learning.Параллельно Microsoft запустила превью Maia SDK. В набор вошли интеграция с PyTorch, компилятор Triton, оптимизированные библиотеки и низкоуровневые инструменты разработки. Компания рассчитывает, что собственный чип будет использоваться вместе с удобным программным стеком.
Мой Брянск
info@mybryansk.ru
Мой Брянск
2026
В мире
ru-RU
Мой Брянск
info@mybryansk.ru
Мой Брянск
Мой Брянск
info@mybryansk.ru
Мой Брянск
Microsoft начала развёртывание собственного AI-ускорителя Maia 200
Microsoft начала использовать собственный ускоритель в дата-центрах Azure, делая ставку на комбинированную модель работы с AI-железом.
Автор:
Алексей Новиков
, Редактор Фото: Generated by DALL·E
Microsoft начала разворачивать в своих дата-центрах первые партии ускорителя Maia 200 — собственного чипа для задач искусственного интеллекта. При этом компания подчёркивает, что запуск собственного «железа» не означает отказ от сотрудничества с внешними поставщиками. В инфраструктуре Microsoft по-прежнему будут использоваться решения Nvidia и AMD, отмечает портал «boda».
Генеральный директор Microsoft Сатья Наделла дал понять, что партнёрства с ведущими производителями чипов остаются важной частью стратегии компании. Он отметил, что Nvidia и AMD продолжают активно развивать свои продукты, а Microsoft не рассматривает вертикальную интеграцию как единственно возможный путь.
Maia 200 позиционируется как ускоритель, ориентированный прежде всего на инференс — выполнение моделей в рабочих сценариях. В Microsoft указывают, что чип разработан для повышения эффективности генерации токенов и снижения затрат. Он выпускается по 3-нм техпроцессу TSMC, поддерживает вычисления FP8 и FP4 и оснащён памятью HBM3e объёмом 216 ГБ с высокой пропускной способностью.
Компания также приводит сравнения с решениями конкурентов, заявляя преимущество Maia 200 по FP4-производительности относительно Amazon Trainium третьего поколения и более высокую FP8-производительность по сравнению с TPU седьмого поколения от Google.
Первым регионом, где Maia 200 уже работает, стал Azure US Central в Айове. Следующим заявлен регион US West 3 в Аризоне, после чего Microsoft планирует расширять географию размещения ускорителя. Чип будет использоваться для поддержки моделей OpenAI в Azure, а также в сервисах Microsoft Foundry и Microsoft 365 Copilot.
Отдельный приоритет получит внутренняя команда Microsoft Superintelligence, занимающаяся разработкой перспективных моделей. В компании уточняют, что Maia 200 планируется применять для генерации синтетических данных и задач reinforcement learning.
Параллельно Microsoft запустила превью Maia SDK. В набор вошли интеграция с PyTorch, компилятор Triton, оптимизированные библиотеки и низкоуровневые инструменты разработки. Компания рассчитывает, что собственный чип будет использоваться вместе с удобным программным стеком.