Skip to main content

A imagem é dividida em duas partes, lado a lado. • À esquerda, há uma pessoa posicionada de perfil, vestindo uma camisa azul com padrão discreto. O fundo é composto por uma parede de concreto clara, com iluminação suave. • À direita, há outra pessoa em frente a um fundo escuro, com iluminação direcionada, vestindo uma camiseta preta. A composição lembra um retrato de estúdio, com contraste marcante entre o sujeito e o fundo. (guerra)

Presente na maioria das conversas sobre inovação e progresso, o setor de Tecnologia se viu imerso em um tipo de debate diferente desde o dia 28 de fevereiro: o da guerra. O estopim veio de um ataque coordenado entre Estados Unidos e Israel ao Irã, que resultou em 201 mortos e 747 feridos em 24 províncias do País, e iniciou um novo conflito na região, e um alerta mundial pela militarização.

Apesar de estar presente em diversos conflitos ao longo da história da humanidade, mais do que uma parte da discussão, a tecnologia desta vez está no centro da conversa e a protagonista segue sendo a inteligência artificial (IA) que, desde o início, tem sido usada como ferramenta para os ataques. Sua utilização no desenvolvimento de projetos militares tem, inclusive, gerado embate entre o governo dos EUA e os líderes de tecnologia.

No dia 2 de março, o presidente dos Estados Unidos, Donald Trump, determinou que todas as agências federais interrompessem imediatamente o uso de tecnologias desenvolvidas pela Anthropic, empresa de IA criadora do modelo Claude, classificando a startup como “risco à cadeia de suprimentos”. A decisão ocorreu após a companhia recusar exigências do Departamento de Defesa para permitir acesso irrestrito a seus sistemas de IA.

Para o especialista em tecnologia, Fernando Barra, esse tipo de movimentação por parte do poder público já era esperada conforme a tecnologia se desenvolve. O que surpreende, no entanto, é a proporção que seu uso tem ou pode alcançar. “Em alguma medida, nós já imaginávamos uma guerra digital, mas muito no contexto de acesso a dados. Então, cortar o acesso à internet, manipular informações. Mas esses novos algoritmos de IA generativa estão crescendo tanto e se tornando tão autônomos que eles vão poder dirigir um caça”.

O problema, nesse caso, se fragmenta em duas nuances, segundo Barra. A primeira delas está nos LLMs usados pelos governos para desenvolver ferramentas de ataque. Com a maioria das inteligências artificiais generativas sendo desenvolvidas nos Estados Unidos, o país teria uma vantagem em questão de dados disponíveis sobre a população mundial, tornando a manipulação dos algoritmos mais fácil e perigosa.

“Hoje todo mundo usa praticamente quatro inteligências artificiais americanas. E tirando os EUA, quando falamos de LLMs, o ferramental está muito concentrado na China e um pouquinho ali na França. Nenhum outro país tem inteligência artificial generativa e usufruir desses dados pode ser um diferencial gigantesco numa guerra”, ressalta. O risco, inclusive, já tem sido medido por países europeus. Em fevereiro deste ano, a França e a Alemanha restringiram o uso de ferramentas como Zoom e Google Meet em órgãos públicos.

Outra nuance apontada pelo especialista está no controle concedido a estes algoritmos que, com tanta autonomia, poderiam decidir onde e quando atacar, a depender dos comandos imputados. A escolha seria tomada apenas a partir de dados, no entanto, em uma guerra o viés é dado quase como certo. “Uma máquina é muito mais inteligente que o ser humano, mas esse é um tipo de decisão que vai muito além da lógica racional. Por mais que a gente olhe para uma inteligência artificial e converse com ela de forma humana, ela não tem consciência, que é a capacidade de sentir e ela não tem consciência, que é a capacidade de entender contextos”, diz.

Além disso, o especialista alerta que ainda há um risco de alucinação, mesmo que tecnologia já tenha avançado. “Se nas empresas, a gente ainda não tem total segurança e acontecem alucinações, ela ainda erra, é totalmente possível ela alucinar em outros contextos. Qualquer uso de IA precisa começar pequeno, com tarefas repetitivas, e deixar a decisão pro humano. Pular essa fase e ir direto para uma fase agêntica, pode trazer problemas sérios”, afirma.

Para fins de comparação de maturidade da tecnologia, o Gartner aponta que menos de 1% das empresas no mundo já implementaram agentes de IA em suas operações. Para Barra, isto é um sinal de que as ferramentas de IA ainda não estão preparadas para tomar decisões que envolvem a vida das pessoas. Mais do que isso, ele afirma que os episódios recentes mostram uma necessidade urgente de discutir práticas de desenvolvimento e uso da IA em nível mundial.

“Nós poder público existe uma regra: não desenvolva nada a não ser que tenha uma regra sobre. No setor privado geralmente é o contrário. Nós seguimos em frente, a não ser que tenha uma lei barrando. E, no caso da IA, algumas coisas já foram discutidas pela ONU, mas a gente não tem uma regulamentação ética e moral do que se pode usar ainda.”

A reivindicação do especialista faz eco a outras vozes dentro do mercado. No caso dos EUA, o movimento do governo fez com que a Anthropic abrisse um processo contra a ação de Trump, argumentando que a classificação foi fruto do uso de poder institucional para punir a companhia por posicionamentos públicos relacionados ao uso da tecnologia, e que representa uma medida não autorizada pela legislação federal.

Nos últimos dias, empresas como Google, Amazon, Apple e Microsoft manifestaram apoio formal à ação judicial, afirmando que tal decisão pode criar um precedente perigoso para a relação entre empresas privadas e o poder público, especialmente em um momento de crescimento acelerado da inteligência artificial. Entre as gigantes do setor, apenas a OpenAI não se manifestou sobre o caso. Após o posicionamento da Anthtopic, a companhia de Sam Altman assumiu o lugar deixado pela concorrente, aceitando as exigências do Departamento de Defesa dos EUA.

No entanto, desde o anúncio dos novos contratos com o governo estadunidense, a big tech tem sofrido com represálias por parte do público geral. Dados da consultoria Sensor Tower apontaram que as desinstalações aumentaram em 295% de um dia para o outro no sábado (28), logo após a empresa confirmar a parceria com o governo estadunidense. A média diária no mês de fevereiro era de apenas 9%.

Leia mais: Para Ian Beacraft, IA desloca trabalho humano para design de sistemas

IA enquanto alvo

Apesar de ser utilizada como instrumento de guerra, a inteligência artificial também pode criar novos alvos dentro dos conflitos. Ao olhar para as infraestruturas que as sustentam, o Irã, por exemplo, já tem feito movimentações neste sentido. No dia 2 de março, a Amazon Web Services (AWS), teve um de seus data centers nos Emirados Árabes atacados por drones, causando incêndio, interrupções no fornecimento de energia e causando instabilidades nos serviços da organização.

Além disso, ainda esta semana, a agência Tasnim News Agency, ligada ao Corpo da Guarda Revolucionária Islâmica (IRGC, na sigla em inglês) do país declarou que empresas estadunidenses com tecnologias utilizadas para aplicações militares podem se tornar alvos do país. A lista de companhias ameaçadas inclui nomes como Google, Microsoft, Palantir, IBM, Nvidia e Oracle.

De acordo com Christopher Rauh, pesquisador distinto da ATRAE no Instituto de Análise Econômica (IAE-CSIC) e professor de Economia e Ciência de Dados na Universidade de Cambridge, as ameaças podem sim fazer parte de um novo foco de países em conflito, visto que o objetivo é sempre atingir os maiores armazenamentos de valor do oponente.

“Se pensarmos no que as pessoas visavam no passado, geralmente eram refinarias de petróleo, certo?! Ou qualquer tipo de fábrica de armas ou grandes instalações de produção. A medida que os dados se tornam valiosos em situações táticas de guerra, é bem possível que as pessoas comecem a visar isso”, opina.

No caso deste combate, no entanto, apesar das ameaças iranianas, o pesquisador não vê este tipo de ataque sendo levado muito adiante. “Muitos dos centros de dados nos EUA estão em locais que seriam difíceis de atingir para um agente estrangeiro. Não creio que o Irã tenha armamento para atingir as infraestruturas em Nevada.”

Nesse sentido, Barra concorda. O especialista afirma ainda que informações como a geolocalização deste tipo de infraestrutura passará a ser cada vez mais valiosa. “É por isso que hoje, inclusive, as grandes big techs não informam com precisão os locais dos seus data centers por segurança já. Eles estão espalhados no mundo e a gente, contratualmente, tem acesso por regiões ou até países, mas eu não tenho acesso especificamente ao endereço físico dele, por questão de segurança.”

Com o Brasil desejando se tornar o país dos data centers, a questão levanta novos debates sobre soberania nacional e o desenvolvimento tecnológico do país, como mostra uma fala recente do presidente Luiz Inácio Lula da Silva, feita durante um encontro bilateral entre Brasil e África do Sul, em março deste ano. Durante o encontro, Lula, que chegou a criticar países que investem em tecnologia militar durante abertura da cúpula virtual “Vozes do Sul Global” em 2023, defendeu que os países do sul global comecem a pensar em novos tipos de investimento em inovação para se defender de futuros ataques.

“Nossos drones são para agricultura, ciência e tecnologia e não para a guerra. Pensamos em defesa como dissuasão. Mas se a gente não se preparar na questão de defesa, qualquer dia alguém invade a gente”, disse o presidente.

E o setor de tecnologia?

Para além dos desdobramentos no Brasil, mesmo permeando todos os aspectos do atual – e provavelmente futuros – embate entre EUA e Irã, Rauh não vê como o setor de Tecnologia poderia se beneficiar economicamente dos movimentos do governo estadunidense. O professor de Economia vê com estranheza qualquer apoio de empresarial à causa que não seja motivado por questões políticas.

“Para mim, é muito difícil de compreender porque, uma das maiores preocupações do mundo da tecnologia é o medo da falta de expansão energética nos EUA. A comparação que eles fazem é sempre com a China, pensando nessa corrida ao armamento, e uma das principais necessidades é a eletricidade. E agora, uma guerra que aumenta os preços do petróleo e da energia…me causa estranheza essa coexistência.”

Desde o início da guerra, o preço médio da gasolina comum saltou de US$2,951 para US$ 3,109 nos Estados Unidos, segundo a associação automotiva AAA. O conflito também já elevou as cotações do petróleo, já que o Estreito de Ormuz, passagem entre o Golfo Pérsico e o Golfo de Omã, segue bloqueado durante o período. No local se passa cerca de um quinto do petróleo mundial.

Diante das pressões sobre os preços de energia o secretário de Energia dos Estados Unidos, Chris Wright, afirmou em entrevista à emissora ABC News no dia 15 de março que a guerra com o Irã acabará “nas próximas semanas”, mas que “não há garantias” de que os preços do petróleo caiam nesse período.

Ao olhar para o passado, o pesquisador afirma que mesmo que guerras sejam um negócio lucrativo, hoje em dia, o preço de investimento em tecnologias para este fim superam o valor adquirido, o que não justificaria um interesse do setor nesse sentido. “Este é sim o velho negócio do mundo, mas o investimento pra você produzir um drone, por exemplo, que será abatido em pouco tempo, sem que isso tenha retorno econômico ou até de base eleitoral, não explica a movimentação.”

Independentemente do futuro deste conflito, Barra vê os incidentes como um aviso do que pode estar por vir. E, para o especialista, a única maneira de prevenir futuros desastres é por meio da educação e do debate público. “Precisamos investir muito em educar a população sobre o que é a IA, como funciona e como pode ser utilizado. Se a gente entender isso, ainda que não seja a IA do nosso país, seremos menos manipulados. Pode ser tarde demais para parar e criar uma inteligência artificial brasileira, mas compreender a tecnologia é fundamental para que a gente possa participar e propor os debates que precisam acontecer.”

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!