Skip to main content

Imagem mostrando a tela de um smartphone com o logotipo da Anthropic em destaque, com letras pretas sobre fundo branco. Ao fundo, é visível um teclado de computador desfocado, em tons escuros e iluminação azulada, criando um contraste com a nitidez do logotipo.

A relação entre o governo dos Estados Unidos e uma das principais empresas de inteligência artificial do país entrou em rota de colisão. A Anthropic, criadora do chatbot Claude, e a Casa Branca estão travando um embate público sobre os rumos da regulação da IA, um conflito que reflete a crescente tensão entre inovação tecnológica e controle governamental.

O ponto de partida foi um ensaio publicado por Jack Clark, cofundador e diretor de políticas da Anthropic, intitulado “Technological Optimism and Appropriate Fear”. No texto, Clark argumenta que parte da comunidade tecnológica está ignorando riscos reais de que a IA possa se tornar uma ameaça existencial à humanidade. Para ele, é preciso reconhecer esses riscos antes de descobrir como “domar a tecnologia e aprender a conviver com ela”.

A resposta veio de David Sacks, responsável pela política de IA da Casa Branca. Em uma declaração contundente, ele acusou a Anthropic de conduzir “uma estratégia sofisticada de captura regulatória baseada no alarmismo”. Sacks sugeriu que o discurso de medo em torno da IA seria, na verdade, uma forma de grandes empresas influenciarem a formulação das regras que devem limitá-las.

Leia também: IA vai provocar disrupção no mercado de trabalho em até 5 anos, prevê CEO da Anthropic

O embate ganhou contornos políticos porque vai além da esfera federal. O governo Biden tem defendido a criação de um marco regulatório nacional unificado, temendo que legislações estaduais distintas criem um labirinto jurídico que possa desacelerar a inovação. Como parte das negociações do chamado Big Beautiful Bill, a Casa Branca apoiou uma proposta de moratória de 10 anos para leis estaduais sobre IA.

A Anthropic se opôs à ideia, classificando a medida como “excessivamente ampla e imprecisa”. Após o fracasso da moratória no Congresso, a empresa passou a apoiar um projeto de lei sobre IA na Califórnia, um dos mais ambiciosos já apresentados nos Estados Unidos. O texto prevê exigências de transparência, segurança e rastreabilidade para sistemas de IA, parâmetros que podem servir de modelo para outros estados.

A disputa evidencia um dilema central na governança da inteligência artificial: até que ponto o governo deve intervir em um setor que evolui em ritmo exponencial? A posição da Casa Branca é a de que a fragmentação das regras por estado ameaça a competitividade americana frente a países como China e União Europeia, que já avançam em legislações de abrangência nacional ou continental.

Para a Anthropic, no entanto, a ausência de limites pode ser ainda mais perigosa. A companhia, que recebeu investimentos bilionários da Amazon e do Google, defende um modelo de regulação adaptativa, capaz de equilibrar incentivos à inovação com salvaguardas éticas e de segurança. Clark tem sido uma das vozes mais ativas em alertar para os potenciais efeitos colaterais da corrida pela IA generativa, de falhas de alinhamento a impactos no mercado de trabalho e na democracia.

Analistas em Washington interpretam o confronto como um sinal de que o debate sobre regulação da IA nos EUA está entrando em uma fase mais madura — e mais politizada. Enquanto o governo busca preservar o dinamismo econômico, empresas como Anthropic tentam moldar as regras para garantir tanto segurança quanto autonomia.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!