O Google atualizou seus princípios de inteligência artificial na terça-feira (4), removendo compromissos anteriores de não utilizar a tecnologia de maneira que “cause ou tenha probabilidade de causar danos em geral”.
Um trecho excluído das diretrizes revisadas de ética em IA anteriormente declarava que o Google não projetaria nem implementaria IA para uso em vigilância, armamentos ou tecnologias destinadas a ferir pessoas. A mudança foi inicialmente identificada pelo The Washington Post e registrada pelo Internet Archive.
Informações do The Verge revelam que coincidindo com essas alterações, o CEO da Google DeepMind, Demis Hassabis, e o executivo sênior do Google para tecnologia e sociedade, James Manyika, publicaram um post no blog da empresa detalhando os novos “princípios fundamentais” que guiarão sua abordagem à IA. Esses princípios incluem inovação, colaboração e desenvolvimento “responsável” de IA — sem fazer compromissos específicos.
“Está ocorrendo uma competição global pela liderança em IA em um cenário geopolítico cada vez mais complexo”, diz a publicação. “Acreditamos que as democracias devem liderar o desenvolvimento da IA, guiadas por valores fundamentais como liberdade, igualdade e respeito pelos direitos humanos. E acreditamos que empresas, governos e organizações que compartilham esses valores devem trabalhar juntos para criar uma IA que proteja as pessoas, promova o crescimento global e apoie a segurança nacional.”
Leia também: “Autorregulação” das big techs: o risco para a privacidade digital
Mudança de postura do Google
Hassabis ingressou no Google após a aquisição da DeepMind em 2014. Em uma entrevista à Wired em 2015, ele afirmou que a aquisição incluía cláusulas que impediam o uso da tecnologia da DeepMind para aplicações militares ou de vigilância.
Apesar da promessa anterior de não desenvolver armas de IA, o Google já trabalhou em vários contratos militares, incluindo o Project Maven — um projeto do Pentágono em 2018 que usava IA para analisar imagens de drones — e o Project Nimbus, um contrato de nuvem militar firmado em 2021 com o governo de Israel.
Esses acordos, feitos antes da evolução da IA para o que é hoje, geraram polêmica entre funcionários do Google que acreditavam que violavam os princípios de IA da empresa.
Com essa atualização em suas diretrizes éticas, o Google se alinha mais aos seus concorrentes no desenvolvimento de IA. Tecnologias como o Llama, da Meta, e o ChatGPT, da OpenAI, já permitem certos usos militares, e um acordo entre a Amazon e a empresa de software governamental Palantir possibilita que a Anthropic venda sua IA Claude para clientes militares e de inteligência dos EUA.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!