Homem mostra o novo servidor de IA da empresa que ele trabalha; as especificações (incluindo 2 TB de RAM) e o preço assustam

Um usuário do Reddit recentemente parou a comunidade r/pcmasterrace ao publicar fotos do novo “brinquedo” da sua empresa: um servidor de Inteligência Artificial que custou nada menos que US$ 350 mil, cerca de R$ 1,8 milhão.

O coração dessa besta tecnológica são dez GPUs NVIDIA H100. Cada uma dessas placas é equipada com 80 GB de memória HBM3, totalizando 800 GB de VRAM. Para se ter uma ideia, isso permite carregar modelos de linguagem gigantescos, como o LLaMA 3.1 de 405 bilhões de parâmetros, inteiramente na memória de vídeo.

Mas a “ostentação” técnica não para nas GPUs:

  • Processadores: Dois Intel Xeon Platinum 8488C, somando 112 núcleos físicos e 224 threads.

  • Memória RAM: 2 TB (2.048 GB) de DDR5, preenchendo todos os slots disponíveis na placa-mãe.

  • Poder de Cálculo: A máquina entrega quase 10 petaFLOPS em operações de IA, uma marca assombrosa para um único chassi.

Por que empresas compram em vez de alugar

A decisão de adquirir o hardware em vez de contratar capacidade em nuvem faz mais sentido quando a carga de trabalho é previsível e constante. Treinar modelos proprietários com dados sensíveis, rodar inferência em escala ou manter um ambiente controlado de MLOps são cenários em que ter o equipamento dentro de casa elimina a latência de rede, o risco de variação de preço de cloud e a dependência de disponibilidade de instâncias, que ainda hoje é escassa para GPUs H100 em provedores populares.

Leia mais

Variedades
Rompimento de reservatório da Sabesp provoca uma morte em Mairiporã
Variedades
O que significa ter dificuldade de expressar opiniões, segundo a psicologia
Tecnologia
Homem relata que sua RTX 5090 queimou após um ano de uso: “achei que não aconteceria comigo”
Sorocaba
GCM prende homem após tentativa de invasão e furto de hidrômetros
Economia
Produção de motos cresce 1,7% e tem melhor 1º bimestre em 15 anos
Variedades
Etanol ou gasolina: o cálculo definitivo para saber qual vale mais a pena

Mais lidas hoje