MENU

HOME

Consecti

Consecti Consecti

Microsoft lança Maia 200 e avança na disputa com a Nvidia por chips de IA

A Microsoft apresentou o Maia 200, novo acelerador de inferência em inteligência artificial, em um movimento claro para rivalizar com a Nvidia e ganhar protagonismo no mercado de hardware para IA em larga escala. Desenvolvido internamente e fabricado no processo de 3 nanômetros da TSMC, o chip reforça a estratégia da companhia de reduzir a dependência de GPUs de terceiros e aumentar o controle sobre desempenho, custos e eficiência energética em seus data centers.

ia-chip

Segundo a empresa, o Maia 200 é o silício próprio mais performático já criado por um hiperescalador. O acelerador conta com núcleos tensores nativos FP8 e FP4, mais de 100 bilhões de transistores e um subsistema de memória redesenhado, com 216 GB de HBM3e e largura de banda de até 7 TB/s, além de 272 MB de SRAM integrada. Na prática, cada chip entrega mais de 10 petaFLOPS em precisão FP4 e cerca de 5 petaFLOPS em FP8, sendo capaz de executar os maiores modelos atuais de IA e escalar para arquiteturas ainda mais complexas.

A Microsoft afirma que o Maia 200 supera em desempenho o Trainium de terceira geração da Amazon em FP4 e o TPU de sétima geração do Google em FP8, além de oferecer 30% mais desempenho por dólar em comparação com o hardware mais avançado atualmente usado pela empresa. O foco do projeto é otimizar a chamada economia de tokens, um dos principais gargalos de custo na operação de modelos generativos em escala.

Do ponto de vista de sistemas, o Maia 200 introduz uma arquitetura de rede escalável em duas camadas baseada em Ethernet padrão, com NIC integrada e protocolos próprios de comunicação entre aceleradores. Cada chip oferece 2,8 TB/s de largura de banda bidirecional dedicada para expansão e suporte a clusters de até 6.144 aceleradores, o que, segundo a Microsoft, reduz consumo energético e custo total de propriedade (TCO) em ambientes de inferência de alta densidade.

O Maia 200 já está sendo implantado na região US Central do Azure, com expansão prevista para US West 3, no Arizona, e outras localidades. A Microsoft também anunciou uma prévia do SDK do Maia, com integração ao PyTorch, compilador Triton e bibliotecas de kernel otimizadas, permitindo portabilidade entre diferentes aceleradores e maior controle para desenvolvedores.

Com o lançamento, a Microsoft se junta a Amazon e Google na corrida por silício próprio para IA, intensificando a competição com a Nvidia, que hoje domina o fornecimento global de GPUs para treinamento e inferência. A aposta no Maia 200 reforça a tendência de verticalização da infraestrutura de IA e sinaliza uma nova fase na disputa pelo controle do hardware que sustenta a próxima geração de aplicações inteligentes.

A Microsoft apresentou o Maia 200, novo acelerador de inferência em inteligência artificial, em um movimento claro para rivalizar com a Nvidia e ganhar protagonismo no mercado de hardware para IA em larga escala. Desenvolvido internamente e fabricado no processo de 3 nanômetros da TSMC, o chip reforça a estratégia da companhia de reduzir a dependência de GPUs de terceiros e aumentar o controle sobre desempenho, custos e eficiência energética em seus data centers.

Segundo a empresa, o Maia 200 é o silício próprio mais performático já criado por um hiperescalador. O acelerador conta com núcleos tensores nativos FP8 e FP4, mais de 100 bilhões de transistores e um subsistema de memória redesenhado, com 216 GB de HBM3e e largura de banda de até 7 TB/s, além de 272 MB de SRAM integrada. Na prática, cada chip entrega mais de 10 petaFLOPS em precisão FP4 e cerca de 5 petaFLOPS em FP8, sendo capaz de executar os maiores modelos atuais de IA e escalar para arquiteturas ainda mais complexas.

A Microsoft afirma que o Maia 200 supera em desempenho o Trainium de terceira geração da Amazon em FP4 e o TPU de sétima geração do Google em FP8, além de oferecer 30% mais desempenho por dólar em comparação com o hardware mais avançado atualmente usado pela empresa. O foco do projeto é otimizar a chamada economia de tokens, um dos principais gargalos de custo na operação de modelos generativos em escala.

Do ponto de vista de sistemas, o Maia 200 introduz uma arquitetura de rede escalável em duas camadas baseada em Ethernet padrão, com NIC integrada e protocolos próprios de comunicação entre aceleradores. Cada chip oferece 2,8 TB/s de largura de banda bidirecional dedicada para expansão e suporte a clusters de até 6.144 aceleradores, o que, segundo a Microsoft, reduz consumo energético e custo total de propriedade (TCO) em ambientes de inferência de alta densidade.

O Maia 200 já está sendo implantado na região US Central do Azure, com expansão prevista para US West 3, no Arizona, e outras localidades. A Microsoft também anunciou uma prévia do SDK do Maia, com integração ao PyTorch, compilador Triton e bibliotecas de kernel otimizadas, permitindo portabilidade entre diferentes aceleradores e maior controle para desenvolvedores.

Com o lançamento, a Microsoft se junta a Amazon e Google na corrida por silício próprio para IA, intensificando a competição com a Nvidia, que hoje domina o fornecimento global de GPUs para treinamento e inferência. A aposta no Maia 200 reforça a tendência de verticalização da infraestrutura de IA e sinaliza uma nova fase na disputa pelo controle do hardware que sustenta a próxima geração de aplicações inteligentes.

Fonte: TI Inside

Mais notícias