
O primeiro-ministro da Suécia, Ulf Kristersson, está enfrentando críticas após revelar que utiliza inteligência artificial (IA) com frequência em seu trabalho como chefe de governo. Em entrevista ao jornal econômico Dagens industri, Kristersson contou que recorre a ferramentas como ChatGPT e o chatbot francês LeChat para obter uma segunda opinião sobre suas decisões.
“Uso com frequência. Se não for por outro motivo, é para ouvir uma segunda opinião. O que outros fizeram? Devemos pensar o oposto?”, disse ele ao jornal sueco.
A revelação desencadeou uma onda de preocupações entre especialistas em tecnologia e segurança da informação. Em editorial, o jornal Aftonbladet acusou o premiê de ter sucumbido à “psicose da IA dos oligarcas”.
Já Simone Fischer-Hübner, pesquisadora da Universidade de Karlstad, alertou sobre o risco de vazamento de informações sensíveis e disse que é preciso “muito cuidado” ao usar IA nesse contexto.
Conforme relatado pelo The Guardian, diante das reações, o porta-voz do primeiro-ministro, Tom Samuelsson, afirmou que não há riscos envolvidos. Segundo ele, “nenhuma informação sensível em termos de segurança é usada” e a IA funciona mais como uma “referência geral”.
Leia também: Automação acelerada: o que falta para as empresas brasileiras alcançarem o consumidor digital?
Críticas sobre limites éticos e representatividade
Apesar das garantias do governo, especialistas apontam limites importantes no uso político da IA. Para Virginia Dignum, professora de IA responsável na Universidade de Umeå, o uso de ferramentas como o ChatGPT não é apropriado para decisões políticas.
“A IA não dá opiniões reais. Ela apenas reflete as visões de quem a programou”, disse Dignum ao jornal Dagens Nyheter. Ela advertiu que, quanto mais o premiê se apoiar nesses sistemas, maior o risco de superestimar suas capacidades. “É uma ladeira escorregadia. Precisamos exigir confiabilidade. Não votamos no ChatGPT”, declarou.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!


