A Cerebras Systems, startup de hardware de IA que vem ganhando terreno no mercado dominado pela Nvidia, anunciou uma ampliação significativa de sua infraestrutura de datacenters e novas parcerias empresariais. Esta expansão posiciona a empresa como uma provedora líder de serviços de inferência de IA em alta velocidade.
Expansão de Datacenters para Inferência em Alta Velocidade
Com a adição de seis novos datacenters na América do Norte e Europa, a capacidade de inferência da Cerebras aumentará vinte vezes, atingindo mais de 40 milhões de tokens por segundo. As novas instalações serão localizadas em Dallas, Minneapolis, Oklahoma City, Montreal, Nova York e França, com 85% dessa capacidade concentrada nos Estados Unidos.
Segundo James Wang, diretor de marketing de produto da Cerebras, o objetivo é atender tanto a demanda existente quanto à esperada para novos modelos, como o Llama 4. “Estamos vendo uma demanda quase ilimitada por tokens de inferência”, ressaltou Wang.
Essa expansão é uma aposta no crescimento do mercado de inferência de IA, que exige soluções mais rápidas do que as baseadas em GPUs da Nvidia. A expectativa é que as empresas busquem alternativas mais eficientes para aplicações do mundo real.
Leia mais sobre o impacto da IA em negócios modernos.
Parcerias Estratégicas para Desenvolvedores e Setor Financeiro
Em conjunto com a expansão de infraestrutura, a Cerebras firmou parcerias com a Hugging Face, conhecida plataforma de desenvolvedores de IA, e AlphaSense, especializada em inteligência de mercado para o setor financeiro.
A integração com a Hugging Face permitirá que mais de 5 milhões de desenvolvedores acessem os serviços de inferência da Cerebras com apenas um clique, otimizando o uso de modelos open-source como o Llama 3.3 70B.
Já a AlphaSense abandonou um fornecedor de modelos fechados de IA e adotou a infraestrutura da Cerebras. Isso aumentou em 10 vezes a velocidade de suas ferramentas de busca orientadas por IA, trazendo benefícios diretos para empresas da Fortune 100.
Descubra como APIs e IA estão revolucionando o futuro do marketing e negócios.
Liderança em Inferência de Alta Velocidade
O processador Wafer-Scale Engine (WSE-3) da Cerebras é capaz de executar modelos de IA entre 10 e 70 vezes mais rápido do que as soluções baseadas em GPU. Essa vantagem é crucial à medida que os modelos evoluem para tarefas mais complexas.
Clientes como Perplexity AI e Mistral AI já utilizam a tecnologia da Cerebras para se destacarem no mercado. Segundo Wang, isso representa avanços antes inviáveis, como a criação do “motor de busca de IA mais rápido do mundo”.
Tornado-Proof: Datacenter Resiliente em Oklahoma
A instalação em Oklahoma City, prevista para junho de 2025, foi projetada para resistir a tornados e atividades sísmicas severas. Operada em parceria com a Scale Datacenter, contará com mais de 300 sistemas CS-3 da Cerebras e soluções de refrigeração feitas sob medida.
Essa infraestrutura robusta reforça o compromisso da Cerebras com a inovação e a resiliência, garantindo operações contínuas mesmo sob condições adversas.
Economia e Eficiência nos Custos
A combinação de alta velocidade e menor custo operacional é um diferencial estratégico da Cerebras. Modelos otimizados em sua arquitetura, como o Llama 3.3 70B, oferecem desempenho semelhante ao GPT-4, mas com custos drasticamente reduzidos.
Empresas podem economizar significativamente ao migrar para soluções Cerebras, enquanto aumentam sua eficiência operacional.
Saiba mais sobre como aproveitar IA e TI para transformar sua empresa.
Foco nos Estados Unidos e Soberania Tecnológica
Com a maior parte de sua capacidade de inferência situada nos EUA, a Cerebras se posiciona como uma peça-chave para a infraestrutura de IA doméstica. Isso ganha relevância num momento em que a soberania tecnológica se torna prioridade nacional.
Ao focar em inferência de alta velocidade e investimentos robustos em datacenters, a Cerebras demonstra uma estratégia clara para competir em um mercado dominado por gigantes como a Nvidia.