Lugenius

A nova guerra da IA não é só de modelos é de infraestrutura

Durante boa parte do ciclo recente da inteligência artificial, a disputa pareceu simples demais para ser verdadeira. O mercado olhava para os modelos, media desempenho, comparava demos, repetia benchmarks e tentava adivinhar quem estava mais perto de dominar a próxima geração de software. Só que a conversa começou a mudar. Nos anúncios oficiais do Google Cloud Next ’26, a empresa colocou no centro não apenas novos recursos de IA, mas uma arquitetura inteira voltada àquilo que chama de “Agentic Enterprise”: uma combinação de plataforma, governança, chips, rede, armazenamento e dados pensada para sustentar agentes em escala. O subtexto é claro: a nova fase da IA já não depende apenas do modelo que impressiona. Depende da base que consegue mantê-lo de pé.

Essa mudança deixa de parecer conceitual quando se olha para o lado físico da equação. Em abril de 2026, a Agência Internacional de Energia informou que o consumo de eletricidade dos data centers subiu 17% em 2025, enquanto o gasto de capital de cinco grandes empresas de tecnologia superou US$ 400 bilhões no mesmo ano e deve crescer mais 75% em 2026. A mesma análise aponta que aplicações mais intensivas, inclusive sistemas agênticos, tendem a elevar ainda mais a pressão sobre rede, capacidade computacional e infraestrutura energética. A disputa, portanto, já não cabe mais numa leitura puramente algorítmica. Ela se tornou industrial.

É por isso que insistir em uma narrativa centrada só em “quem tem a melhor IA” já começa a soar incompleto. O jogo agora envolve outra camada: quem consegue entregar inferência com baixa latência, treinar modelos em escala, garantir governança, operar memória persistente, sustentar custos energéticos crescentes e expandir a cadeia de suprimentos sem travar o próprio crescimento. O fascínio pelo modelo continua. Mas o poder real começa a migrar para quem controla melhor a infraestrutura que o torna viável.

O centro da disputa saiu do modelo e entrou na capacidade de execução

Os próprios materiais oficiais do Google Cloud Next ’26 ajudam a entender essa virada. A empresa apresentou a Gemini Enterprise Agent Platform como uma plataforma para construir, escalar, governar e otimizar agentes, deixando claro que o foco já não está apenas em criar experiências inteligentes, mas em administrá-las como parte da operação real das empresas. Na prática, isso significa tratar agentes como sistemas corporativos com identidade, observabilidade, controle, integração e segurança, não como demonstrações isoladas de IA generativa.

A leitura ganha mais peso quando observada de fora da comunicação institucional. Em reportagem da Reuters sobre o evento, Sundar Pichai aparece levando os agentes ao centro da estratégia de monetização de IA do Google, enquanto Thomas Kurian descreve uma mudança concreta de uso: o antigo foco em machine learning tradicional deu lugar a uma explosão de empresas construindo agentes próprios. O ponto é decisivo porque mostra que o mercado enterprise já está puxando a IA para uma fase menos teatral e mais operacional.

Quando uma empresa desse porte reorganiza sua oferta em torno de agentes, governança e chips próprios, ela não está apenas mudando a embalagem do discurso. Está sinalizando que a vantagem competitiva passa a depender menos do brilho de uma interface e mais da capacidade de sustentar milhares de execuções, decisões e integrações em ambientes corporativos complexos. E isso, no fim das contas, é infraestrutura.

Na nova fase da IA, a pergunta mais importante deixou de ser “quem tem o melhor modelo?” e passou a ser “quem consegue sustentar esse modelo em escala real, com custo, controle e velocidade?

Chips deixaram de ser detalhe técnico e viraram campo de batalha

A mudança fica ainda mais clara quando se entra na camada do hardware. No próprio Next ’26, o Google apresentou sua oitava geração de TPUs, com dois caminhos distintos: TPU 8t para treinamento acelerado e TPU 8i para inferência com latência próxima de zero. Não é um detalhe menor. É um sinal de especialização. Se o mercado estivesse apenas correndo por modelos maiores, bastaria capacidade bruta. Mas quando se cria uma arquitetura separada para treino e inferência, o que aparece é outra exigência: adaptar a infraestrutura ao tipo de carga que a nova IA realmente produz.

A Reuters registrou que o Google desenhou esses chips explicitamente para a “era dos agentes”, com pods de treinamento em escala massiva e um chip de inferência com memória ampliada para respostas instantâneas. Em termos práticos, isso significa que a discussão deixou de ser abstrata. Os agentes estão forçando mudanças físicas na forma como a computação é montada, distribuída e otimizada. A inteligência artificial está pedindo um novo tipo de máquina.

É nesse ponto que a infraestrutura deixa de ser bastidor e passa a ocupar o palco. Porque, se os agentes exigem outro perfil de hardware, então quem domina melhor esse hardware começa a dominar também o ritmo de expansão da própria IA.

O gargalo não está só no chip está no que vem depois dele

Uma das ilusões mais persistentes sobre a corrida da IA é imaginar que tudo se resolve na fabricação do semicondutor. Mas o próprio noticiário recente mostra que o gargalo é mais amplo. Em reportagem publicada pela Reuters sobre a ASML, o CEO Christophe Fouquet afirmou que a empresa não pretende voltar a ser um gargalo para a indústria, apontando investimentos em capacidade e produtividade num momento em que a demanda por chips de IA e memória continua pressionando a cadeia. Quando a principal fornecedora mundial de litografia precisa tranquilizar o mercado sobre gargalos, fica evidente que a disputa já se instalou no coração da indústria pesada.

Mas o problema não termina na fabricação. A Reuters também mostrou que a TSMC pretende abrir uma planta de empacotamento avançado no Arizona até 2029 justamente porque chips modernos de IA, como os usados pela Nvidia, dependem de tecnologias complexas de packaging, como CoWoS e 3D-IC, que se tornaram gargalos relevantes para a indústria. Em outras palavras: o chip sozinho já não basta. O valor está cada vez mais em como ele é montado com memória, interligado a outros componentes e preparado para operar em escala

Esse ponto é mais importante do que parece. Porque, quando o gargalo se desloca do design para o empacotamento e da lógica para a interconexão, a corrida da IA deixa de ser vencida apenas por quem concebe melhor a arquitetura do modelo. Ela passa a favorecer quem controla melhor uma cadeia inteira de execução.

Energia virou uma variável estratégica, não um rodapé técnico

Se existe uma prova incontornável de que a IA virou uma questão de infraestrutura, ela está na energia. A IEA projeta que o consumo elétrico dos data centers pode dobrar até 2030, enquanto o dos centros focados em IA pode triplicar. A agência reconhece que a eficiência por tarefa está melhorando rápido, mas isso não compensa sozinho a expansão agressiva do uso, especialmente quando sistemas mais complexos passam a exigir memória persistente, cadeias de raciocínio longas, inferência contínua e cargas distribuídas.

Essa mudança altera a natureza do debate. Data center deixa de ser apenas infraestrutura digital e passa a ser também infraestrutura energética. A IA, que até pouco tempo era vendida majoritariamente como software de ponta, começa a depender diretamente de subestações, conexão à rede, resfriamento, aprovação regulatória, cronograma de construção e disponibilidade elétrica. A própria IEA ressalta que o setor já enfrenta gargalos físicos relevantes, dos componentes energéticos aos próprios chips avançados.

Talvez seja aí que a nova fase da IA se revele com mais nitidez. Porque uma tecnologia ainda cabe no discurso enquanto depende só de promessa. Quando ela passa a depender de megawatts, prazos de obra e escala industrial, o mercado é obrigado a tratá-la com outro nível de seriedade.

O enterprise já está empurrando a IA para fora do piloto

Outro sinal de maturidade vem da forma como grandes clientes estão comprando essa nova camada. Em reportagem publicada hoje, a Reuters informou que a Merck pretende investir até US$ 1 bilhão ao longo de vários anos em capacidades de IA com o Google Cloud, incluindo infraestrutura, engenharia e licenças do Gemini Enterprise. A parceria foi anunciada como uma iniciativa para levar IA à pesquisa, ao regulatório, à manufatura e à operação comercial, áreas em que falhar custa muito mais do que perder uma demo bonita.

Mais importante do que o valor é o que ele revela. O CIO da Merck disse à Reuters que a empresa não está “comprando tokens”, mas um conjunto de ferramentas, engenharia e capacidade operacional. Também afirmou que o uso já ajudou a reduzir pela metade o tempo e o custo de montagem de dossiês para reembolso de novos medicamentos em vários mercados. Isso muda o enquadramento inteiro da conversa: a IA deixa de ser experimento periférico e passa a ser tratada como parte da engrenagem produtiva.

Quando uma farmacêutica desse porte decide escalar IA em áreas sensíveis, o mercado recebe uma mensagem clara. A próxima batalha não será vencida só por quem tiver o modelo mais sedutor. Será vencida por quem oferecer infraestrutura, governança e confiabilidade suficientes para que o enterprise de fato coloque a IA para trabalhar.

A nova vantagem competitiva é menos visível e por isso mesmo mais decisiva

O erro mais comum ao ler essa corrida é confundir visibilidade com força real. Modelos chamam atenção. Agentes bem demonstrados impressionam. Interfaces bonitas geram manchete. Mas a vantagem mais difícil de copiar começa a se formar em uma camada menos fotogênica: chips próprios, empacotamento avançado, rede de data centers, capacidade energética, governança de agentes, controle de identidade, observabilidade e integração com dados empresariais. É essa infraestrutura invisível que começa a definir quem escala e quem apenas aparece.

A nova guerra da IA, portanto, não é só uma disputa de inteligência. É uma disputa de sustentação. E isso muda tudo. Porque, quando a tecnologia entra nessa fase, menos empresas conseguem acompanhar o ritmo. O espaço continua aberto para inovação, mas o custo de liderança sobe, e sobe rápido.

Conclusão

A corrida da IA continua sendo uma corrida por modelos melhores. Mas já não é apenas isso. Os anúncios do Google Cloud Next ’26, os alertas da Agência Internacional de Energia, os movimentos descritos pela Reuters sobre ASML, TSMC e Merck apontam todos para a mesma direção: o futuro da IA será decidido também por quem controlar melhor a infraestrutura que a torna viável.

Modelos continuam importando, claro. Só que agora eles precisam de chão. E talvez essa seja a transformação mais importante do momento: a inteligência artificial está saindo da fase em que bastava prometer o futuro e entrando na fase em que será preciso construí-lo, chip por chip, data center por data center, megawatt por megawatt.

[FAQ]

Por que dizer que a guerra da IA virou uma disputa de infraestrutura?
Porque o mercado passou a depender não só de modelos avançados, mas também de chips especializados, data centers, rede, memória, empacotamento, segurança, governança e energia suficiente para escalar essas cargas com estabilidade e custo viável. Isso aparece tanto nas comunicações oficiais do Google Cloud quanto nos dados da IEA e nas reportagens recentes sobre ASML e TSMC.

O que mudou com a chegada dos agentes?
Os agentes elevam o nível de exigência porque não se limitam a responder perguntas. Eles precisam executar fluxos, manter contexto, interagir com múltiplos sistemas e operar sob regras de segurança e auditoria. Por isso, exigem uma infraestrutura mais robusta e governada.

Por que energia virou tema central nessa discussão?
Porque o crescimento do consumo elétrico dos data centers está acelerando, e a IEA projeta aumento ainda maior com a expansão da IA. Isso transforma energia em variável estratégica de custo, expansão e viabilidade operacional.

Essa nova fase favorece só as big techs?
Elas largam com vantagem por capital e escala, mas a cadeia inteira ganha importância: fabricantes, fornecedores de litografia, empacotamento, infraestrutura de rede, armazenamento e integração passam a influenciar diretamente o ritmo da corrida.

MAIS INSIGHTS