Skip to main content

Matt Garman AWS

O mundo corporativo caminha para uma nova transformação em que “bilhões de agentes” de inteligência artificial (IA) passarão a interagir simultaneamente dentro de empresas de todos os segmentos. Foi com essa mensagem que Matt Garman, CEO da AWS, abriu o primeiro dia do Re:Invent 2025, principal evento global para parceiros e clientes da empresa de nuvem, que acontece nesta semana em Las Vegas, nos Estados Unidos.

Segundo ele, essa transformação agêntica deve acelerar a transição da IA de um fenômeno técnico para um mecanismo capaz de gerar retorno real, redefinindo processos, produtividade e competitividade global. “Agentes estão começando a escalar o impacto das pessoas, em alguns casos em até dez vezes. Agora, todos terão mais tempo para inventar”, disse.

Leia mais: “Temos talentos únicos”, defende VP Latam da AWS sobre adoção de IA na região

Ele reconheceu, no entanto, o desafio do ROI para organizações do mundo inteiro. Segundo o CEO, muitos dos retornos prometidos aos investimentos em IA ainda não foram capturados por companhias. Isso é o que corrobora estudos como aquele lançado pelo MIT em agosto, que aponta que 95% dos projetos de IA generativa não trazem retorno para as companhias.

Para Garman, os agentes são o caminho para acelerar a curva. “O verdadeiro valor da IA não foi alcançado, mas isso vai se transformar rápido”, anotou.

A AWS busca estar no centro da infraestrutura necessária para suportar essa nova era da IA. Durante sua fala, o CEO enfatizou que a empresa tem papel central do desempenho, escalabilidade e custo operacional na corrida por modelos maiores e aplicações mais complexas – com novos produtos e serviços que vão desde a camada de hardware até as aplicações. “Nada é pequeno demais para não estar no nosso foco agora”, afirmou.

Infraestrutura e hardware ganham protagonismo

A AWS abriu o conjunto de anúncios reforçando a parceria histórica com a Nvidia. A empresa apresentou a nova família de instâncias EC2 baseadas na GPU Nvidia P6E-GB300, construída com otimizações conjuntas de hardware, software e operação para cargas de IA em larga escala.

Outro anúncio foi o serviço AWS AI Factories, que leva a infraestrutura de IA de grande porte diretamente para data centers de clientes que precisam atender requisitos rígidos como soberania de dados e operação local. A iniciativa nasce da experiência da AWS em projetos de treinamento e inferência realizados com empresas como Anthropic e OpenAI.

A linha de chips proprietários da AWS também cresceu com o anúncio da disponibilidade geral de ultraservidores Trainium 3. A nova geração do chip, desenhado para cargas de treinamento e inferência de grande escala, inaugura o uso de litografia de três nanômetros na nuvem da AWS e promete 40% mais eficiência e o dobro de capacidade de computação.

Os chips estarão por trás, por exemplo, do Project Reinier, iniciativa que soma mais de 30 data centers e 1,1 GW de energia para o treinamento dos próximos modelos Claude, da Anthropic.

A empresa ainda antecipou detalhes do Trainium 4. A próxima geração de seu chip de IA promete um salto significativo em relação ao antecessor, com seis vezes mais desempenho em FP4, quatro vezes mais largura de banda de memória e eficiência energética também duplicada.

AWS expande oferta de modelos

Na camada de modelos, a AWS anunciou adições ao Amazon Bedrock, plataforma que reúne modelos de diferentes provedores e ferramentas para customizar, integrar, proteger e operar agentes de IA em escala. Segundo a companhia, o Bedrock já soma mais de 100 mil usuários globalmente, incluindo mais de 50 que operam 1 trilhão de tokens por semana.

A empresa confirmou a entrada de 18 novos modelos no Bedrock, entre eles Google Gemma, Minimax e Nvidia Memotron. Novas versões da Mistral, incluindo Mistral Large 3 e a família Ministral 3, voltada a aplicações multimodais compactas, também entrarão na plataforma.

No conjunto de modelos proprietários, a AWS apresentou a família Nova 2, formada pelas versões Lite, Pro, Sonic e Omni. O Nova 2 Lite atende tarefas multimodais do dia a dia com foco em eficiência; o Nova 2 Pro é voltado a aplicações que exigem alta precisão, como migração de software e análises complexas; o Nova 2 Sonic foca em capacidades de conversação em tempo real; e o Nova 2 Omni reúne texto, imagem, vídeo e áudio em um único modelo para fluxos criativos e operacionais que demandam múltiplos formatos.

Modelos e agentes de fronteira

Para organizações com necessidades avançadas de IA, a Amazon revelou uma nova oferta voltada para os chamados “modelos de fronteira”, o Nova Forge. A plataforma possibilita combinar dados da organização com modelos pré-existentes no Bedrock para gerar um novo modelo avançado.

A proposta mira empresas que desejam alto grau de customização de modelos, mas não dispõem da escala necessária para treiná-los do zero. Com a solução, torna-se possível adaptar modelos robustos às necessidades específicas do negócio sem que eles percam as capacidades fundamentais aprendidas na etapa original de pré-treinamento.

A promessa é que empresas poderão produzir modelos que compreendem seus domínios, mas ainda preservem funções essenciais como sumarização, raciocínio e interpretação multimodal. Reddit, Sony e Booking.com já estão entre os usuários iniciais do serviço.

No front de agentes, há novas adições ao Agent Core, plataforma para criação e operação de agentes lançada em julho. Uma das novas capacidades é o Policy, descrito como um “firewall para agentes”, que define limites operacionais de forma natural, convertendo regras em políticas executáveis pelo sistema. Também foi anunciado o Evaluations, módulo de avaliação contínua que mede a qualidade de agentes a partir de interações reais e alerta quando o comportamento se desvia do esperado.

Ainda na linha de agentes, a Amazon revelou um novo grupo de “agentes de fronteira” proprietários. Diferentemente dos tradicionais, os novos agentes de última geração são capazes de operar autonomamente, escalar para milhares de tarefas simultâneas e executar fluxos de trabalho por horas ou dias sem intervenção humana.

Veja também: IA acelera diagnóstico de câncer na maior rede privada de hospitais do México

O primeiro deles é o Kiro Autonomous Agent. O agente é capaz de se conectar a ferramentas como GitHub, Jira e Slack, mantém contexto entre sessões e executa tarefas de backlog de ponta a ponta. Segundo a AWS, a ferramenta é capaz de aprender padrões dos times de TI, comportamentos de código e arquitetura para replicar práticas internas em novos projetos.

Já o Security Agent pode revisar documentos técnicos, identificar vulnerabilidades e sugerir correções. A plataforma automatiza processos de pentest e busca reduzir a defasagem entre velocidade de entrega e as demandas de segurança no desenvolvimento.

Por fim, no front operacional, o DevOps Agent é voltado para monitoramento de recursos, telemetria e identificação de causas-raiz de incidentes. A solução se integra a ferramentas de observabilidade como Dynatrace e a pipelines de CI/CD. Ao detectar falhas, o agente sugere ajustes e recomenda guardrails para evitar recorrências. A AWS descreve a ferramenta como “um engenheiro de plantão permanente”.

*O jornalista viajou a Las Vegas a convite da AWS.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!