A Meta anunciou quatro chips próprios para inteligência artificial — MTIA 300, 400, 450 e 500 — que serão colocados em operação antes do fim de 2027. A família de processadores cobre as duas grandes demandas de infraestrutura de IA da empresa: treinar modelos de linguagem e rodar inferência nas plataformas com bilhões de usuários, como Instagram e Facebook. Os detalhes técnicos foram publicados no blog oficial de IA da Meta em março de 2026.
O MTIA 300 já está em produção. Ele opera com arquitetura de chiplets, integra motores de mensagens dedicados para descarregar tarefas de comunicação e mantém o cálculo próximo da memória. Cada unidade de processamento carrega dois núcleos RISC-V e um motor de produto escalar especializado em multiplicação de matrizes, operação central no treinamento de redes neurais. Atualmente, o chip processa os sistemas de recomendação e ranqueamento de conteúdo que definem o que cada usuário vê no feed.
O segundo chip da família, o MTIA 400, batizado internamente de Iris, concluiu os testes de laboratório e está pronto para ser integrado aos centros de dados da empresa. Nascido para treinar algoritmos de recomendação, o Iris entrega um ganho de 400% no desempenho em operações FP8 e amplia em 51% a largura de banda de memória HBM em relação ao MTIA 300. É uma evolução direta, não uma ruptura de arquitetura, o que facilita a migração da infraestrutura existente.
Arke e Astrid chegam em 2027 com foco em inferência
Para a segunda metade do roadmap, a Meta trabalha em paralelo nos chips MTIA 450 e 500, chamados Arke e Astrid. Yee Jiun Song, vice-presidente de engenharia da empresa, confirmou que os dois projetos correm simultaneamente. A previsão é que o Arke entre em operação no início de 2027 e o Astrid seis meses depois.
O Arke muda o foco: enquanto o Iris prioriza treinamento, o MTIA 450 foi projetado para inferência. Ele dobra a largura de banda HBM do Iris, o que acelera a etapa de decodificação, o processo pelo qual um modelo de linguagem gera texto token por token. Em aplicações de escala massiva, essa diferença se traduz diretamente em custo operacional e velocidade de resposta.
O Astrid, por sua vez, adota uma configuração modular de 2×2 chiplets de cálculo, cercados por pilhas de memória HBM e um chiplet SoC responsável pela conectividade PCIe. Em relação ao Arke, o MTIA 500 aumenta a capacidade de memória em 80% e a largura de banda em 50%. O chip também incorpora tipos de dados personalizados que preservam a qualidade dos modelos com impacto mínimo na área do silício, uma forma de manter precisão sem inflar o custo de fabricação.
A conta para sair da dependência da NVIDIA
Produzir semicondutores próprios tem um custo fixo alto e um ciclo longo: do fechamento do design até a entrega pelo fabricante contratado, no caso da Meta, a TSMC, costuma levar dois anos. O investimento só se justifica com uso em escala, e a Meta opera nessa escala: são mais de 3 bilhões de usuários ativos diários entre suas plataformas.
Para acelerar o desenvolvimento, a empresa adquiriu a Rivos, startup americana de semicondutores que desenvolvia sua própria GPU. Um porta-voz da Meta disse ao Bloomberg que a compra “aceleraria os esforços com silício personalizado”. Antes disso, a empresa tentou comprar a sul-coreana FuriosaAI, mas a negociação não se concretizou.
Mesmo com chips próprios no horizonte, a Meta mantém os contratos com NVIDIA e AMD. A estratégia segue o modelo adotado pela Microsoft: usar hardware de terceiros para tarefas de propósito geral e chips internos para funções específicas das plataformas. Mark Zuckerberg já anunciou que a empresa vai investir entre 60 e 65 bilhões de dólares em infraestrutura de IA apenas em 2025, parte significativa destinada a GPUs externas enquanto os chips próprios não cobrem todas as demandas.
O objetivo declarado da série MTIA é, no longo prazo, desenvolver chips de treinamento que possam competir diretamente com as GPUs da NVIDIA. Por ora, o roadmap de 2027 representa um passo concreto nessa direção — mas a paridade com a H100 e a Blackwell ainda não tem data.



