
O mundo corporativo caminha para uma nova transformação em que “bilhões de agentes” de inteligência artificial (IA) passarão a interagir simultaneamente dentro de empresas de todos os segmentos. Foi com essa mensagem que Matt Garman, CEO da AWS, abriu o primeiro dia do Re:Invent 2025, principal evento global para parceiros e clientes da empresa de nuvem, que acontece nesta semana em Las Vegas, nos Estados Unidos.
Segundo ele, essa transformação agêntica deve acelerar a transição da IA de um fenômeno técnico para um mecanismo capaz de gerar retorno real, redefinindo processos, produtividade e competitividade global. “Agentes estão começando a escalar o impacto das pessoas, em alguns casos em até dez vezes. Agora, todos terão mais tempo para inventar”, disse.
Leia mais: “Temos talentos únicos”, defende VP Latam da AWS sobre adoção de IA na região
Ele reconheceu, no entanto, o desafio do ROI para organizações do mundo inteiro. Segundo o CEO, muitos dos retornos prometidos aos investimentos em IA ainda não foram capturados por companhias. Isso é o que corrobora estudos como aquele lançado pelo MIT em agosto, que aponta que 95% dos projetos de IA generativa não trazem retorno para as companhias.
Para Garman, os agentes são o caminho para acelerar a curva. “O verdadeiro valor da IA não foi alcançado, mas isso vai se transformar rápido”, anotou.
A AWS busca estar no centro da infraestrutura necessária para suportar essa nova era da IA. Durante sua fala, o CEO enfatizou que a empresa tem papel central do desempenho, escalabilidade e custo operacional na corrida por modelos maiores e aplicações mais complexas – com novos produtos e serviços que vão desde a camada de hardware até as aplicações. “Nada é pequeno demais para não estar no nosso foco agora”, afirmou.
Infraestrutura e hardware ganham protagonismo
A AWS abriu o conjunto de anúncios reforçando a parceria histórica com a Nvidia. A empresa apresentou a nova família de instâncias EC2 baseadas na GPU Nvidia P6E-GB300, construída com otimizações conjuntas de hardware, software e operação para cargas de IA em larga escala.
Outro anúncio foi o serviço AWS AI Factories, que leva a infraestrutura de IA de grande porte diretamente para data centers de clientes que precisam atender requisitos rígidos como soberania de dados e operação local. A iniciativa nasce da experiência da AWS em projetos de treinamento e inferência realizados com empresas como Anthropic e OpenAI.
A linha de chips proprietários da AWS também cresceu com o anúncio da disponibilidade geral de ultraservidores Trainium 3. A nova geração do chip, desenhado para cargas de treinamento e inferência de grande escala, inaugura o uso de litografia de três nanômetros na nuvem da AWS e promete 40% mais eficiência e o dobro de capacidade de computação.
Os chips estarão por trás, por exemplo, do Project Reinier, iniciativa que soma mais de 30 data centers e 1,1 GW de energia para o treinamento dos próximos modelos Claude, da Anthropic.
A empresa ainda antecipou detalhes do Trainium 4. A próxima geração de seu chip de IA promete um salto significativo em relação ao antecessor, com seis vezes mais desempenho em FP4, quatro vezes mais largura de banda de memória e eficiência energética também duplicada.
AWS expande oferta de modelos
Na camada de modelos, a AWS anunciou adições ao Amazon Bedrock, plataforma que reúne modelos de diferentes provedores e ferramentas para customizar, integrar, proteger e operar agentes de IA em escala. Segundo a companhia, o Bedrock já soma mais de 100 mil usuários globalmente, incluindo mais de 50 que operam 1 trilhão de tokens por semana.
A empresa confirmou a entrada de 18 novos modelos no Bedrock, entre eles Google Gemma, Minimax e Nvidia Memotron. Novas versões da Mistral, incluindo Mistral Large 3 e a família Ministral 3, voltada a aplicações multimodais compactas, também entrarão na plataforma.
No conjunto de modelos proprietários, a AWS apresentou a família Nova 2, formada pelas versões Lite, Pro, Sonic e Omni. O Nova 2 Lite atende tarefas multimodais do dia a dia com foco em eficiência; o Nova 2 Pro é voltado a aplicações que exigem alta precisão, como migração de software e análises complexas; o Nova 2 Sonic foca em capacidades de conversação em tempo real; e o Nova 2 Omni reúne texto, imagem, vídeo e áudio em um único modelo para fluxos criativos e operacionais que demandam múltiplos formatos.
Modelos e agentes de fronteira
Para organizações com necessidades avançadas de IA, a Amazon revelou uma nova oferta voltada para os chamados “modelos de fronteira”, o Nova Forge. A plataforma possibilita combinar dados da organização com modelos pré-existentes no Bedrock para gerar um novo modelo avançado.
A proposta mira empresas que desejam alto grau de customização de modelos, mas não dispõem da escala necessária para treiná-los do zero. Com a solução, torna-se possível adaptar modelos robustos às necessidades específicas do negócio sem que eles percam as capacidades fundamentais aprendidas na etapa original de pré-treinamento.
A promessa é que empresas poderão produzir modelos que compreendem seus domínios, mas ainda preservem funções essenciais como sumarização, raciocínio e interpretação multimodal. Reddit, Sony e Booking.com já estão entre os usuários iniciais do serviço.
No front de agentes, há novas adições ao Agent Core, plataforma para criação e operação de agentes lançada em julho. Uma das novas capacidades é o Policy, descrito como um “firewall para agentes”, que define limites operacionais de forma natural, convertendo regras em políticas executáveis pelo sistema. Também foi anunciado o Evaluations, módulo de avaliação contínua que mede a qualidade de agentes a partir de interações reais e alerta quando o comportamento se desvia do esperado.
Ainda na linha de agentes, a Amazon revelou um novo grupo de “agentes de fronteira” proprietários. Diferentemente dos tradicionais, os novos agentes de última geração são capazes de operar autonomamente, escalar para milhares de tarefas simultâneas e executar fluxos de trabalho por horas ou dias sem intervenção humana.
Veja também: IA acelera diagnóstico de câncer na maior rede privada de hospitais do México
O primeiro deles é o Kiro Autonomous Agent. O agente é capaz de se conectar a ferramentas como GitHub, Jira e Slack, mantém contexto entre sessões e executa tarefas de backlog de ponta a ponta. Segundo a AWS, a ferramenta é capaz de aprender padrões dos times de TI, comportamentos de código e arquitetura para replicar práticas internas em novos projetos.
Já o Security Agent pode revisar documentos técnicos, identificar vulnerabilidades e sugerir correções. A plataforma automatiza processos de pentest e busca reduzir a defasagem entre velocidade de entrega e as demandas de segurança no desenvolvimento.
Por fim, no front operacional, o DevOps Agent é voltado para monitoramento de recursos, telemetria e identificação de causas-raiz de incidentes. A solução se integra a ferramentas de observabilidade como Dynatrace e a pipelines de CI/CD. Ao detectar falhas, o agente sugere ajustes e recomenda guardrails para evitar recorrências. A AWS descreve a ferramenta como “um engenheiro de plantão permanente”.
*O jornalista viajou a Las Vegas a convite da AWS.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

