Shenzhen inaugurou o maior complexo de computação para inteligência artificial já construído na China: um agrupamento de 14.000 petaflops montado com 10.000 aceleradores Huawei Ascend 910C, todos de fabricação nacional. O governo municipal celebrou a marca como o primeiro complexo em escala de 10.000 placas com tecnologia 100% doméstica. A conquista é real, o problema está no que os números omitem quando colocados ao lado dos rivais americanos.
O que 14.000 petaflops representa na prática
O complexo foi montado em duas fases: uma primeira entrega de 3.000 petaflops, já existente, e uma segunda de 11.000 petaflops recém-inaugurada, chegando ao total atual. O governo de Shenzhen divulgou taxa de ocupação de 92% e destacou métricas de eficiência energética, mas não publicou nenhuma comparação direta com os agrupamentos baseados em aceleradores NVIDIA H100 que equipam os centros de dados da Microsoft, do Google e da Amazon. Essa omissão fala por si: 14.000 petaflops correspondem a cerca de 1% da capacidade do maior centro de dados americano em operação hoje, o complexo da Amazon no estado de Indiana, inaugurado em dezembro de 2025 com investimento de US$ 11 bilhões e projetado para 30 edifícios.
O chip no centro do problema

O Ascend 910C, coração do complexo de Shenzhen, entrega cerca de 800 teraflops em FP16. O NVIDIA H100 SXM chega a 989 teraflops na mesma precisão, e a AMD MI300X a 1.307 teraflops. Em tarefas de inferência com modelos como o DeepSeek R1, a equipe da própria DeepSeek verificou que o desempenho do 910C fica em 60% do H100. O chip da Huawei é fabricado pela SMIC em processo de 7nm (geração N+2), enquanto o H100 usa o processo de 4nm da TSMC, uma diferença de geração que se traduz diretamente em densidade, eficiência e capacidade de escala produtiva.
Na China não falta eletricidade, engenheiros nem capital para construir infraestrutura de IA — o que falta são chips em volume suficiente. As restrições de exportação impostas pelos EUA cortaram o acesso chinês aos aceleradores da NVIDIA e às fábricas avançadas da TSMC, forçando a Huawei a acelerar seu próprio ecossistema. O resultado prático é que o agrupamento de Shenzhen poderia ser geometricamente maior se a produção de wafers em escala industrial estivesse disponível. A análise da SemiAnalysis publicada em 2025 mostrou que o sistema CloudMatrix 384, que empilha 384 chips Ascend 910C em rede, superou o NVL72 da NVIDIA em algumas métricas de sistema, mas cada unidade desse sistema exige centenas de chips, e a capacidade produtiva da SMIC continua sendo o teto real.
O que o marco de Shenzhen realmente indica
O agrupamento de 14.000 petaflops é, simultaneamente, um feito de engenharia e um retrato da defasagem atual. A China construiu com esforço institucional considerável o equivalente ao que a OpenAI já tinha disponível para treinar o GPT-4 em 2022. Isso não é um fracasso de ambição nem de investimento, é a consequência direta de um embargo que atinge a camada mais difícil de replicar: a manufatura de semicondutores de última geração. O ritmo com que a China vai estreitar essa diferença depende quase inteiramente de quanto a indústria doméstica de chips consegue escalar antes que a janela tecnológica se feche ainda mais



