Skip to main content

inteligencia artificial, energia, inovação, autenticidade, hype, confiança

A história da inteligência artificial (IA) remonta a décadas, mas a questão central que acompanha seu avanço permanece a mesma: não se trata apenas de perguntar “podemos?”, mas sim “devemos?”.

Essa provocação é levantada por Martin Gill, vice-presidente e diretor de pesquisas da Forrester, em relatório publicado em setembro de 2025, no qual destaca a confiança como o fator determinante para acelerar a adoção da tecnologia em larga escala.

Gill relembra como, nos anos 1960, experimentos pioneiros como o chatbot ELIZA, de Joseph Weizenbaum, e o modelo PARRY, de Kenneth Colby, já apontavam para dilemas éticos da interação homem-máquina. A ficção científica também ajudou a esquentar esse debate, de Mary Shelley a Isaac Asimov, com suas célebres “três leis da robótica”.

Hoje, a discussão deixa de ser teórica. Influenciadores digitais como Lil Miquela, com mais de 2 milhões de seguidores no Instagram, ou a banda Velvet Sundown, que acumula milhões de streams, mostram como entidades artificiais já competem diretamente pela atenção de consumidores, muitas vezes sem transparência sobre sua natureza.

Esse fenômeno intensifica a chamada “uncanny valley”, a estranheza causada por entidades quase humanas, e levanta uma questão crucial: quem (ou o quê) realmente merece confiança?

Leia também: Angélica Vitali, da T-Systems, equilibra introversão e comunicação na liderança

Confusão entre consumidores

Dados do Forrester Consumer Benchmark Survey 2025 revelam o tamanho do desafio. Na Austrália, 68% dos consumidores acreditam que chatbots usam IA, mas apenas 58% associam a tecnologia a carros autônomos. No Reino Unido, a percepção é ainda mais distorcida, embora 80% dos entrevistados defendam que empresas devem ser transparentes e informar claramente onde a IA é aplicada.

Esse desencontro entre realidade e percepção demonstra que a resistência à IA não está na tecnologia em si, mas na forma como é comunicada e regulada.

Segundo a Forrester, entre 30% e 40% das empresas no mundo já aplicam IA em produção para melhorar a experiência do cliente, seja otimizando equipes de atendimento, analisando interações em call centers ou interpretando feedbacks.

No entanto, para a maioria das organizações que ainda não avançaram, os entraves não são técnicos. Questões ligadas à ética, privacidade, transparência e preparo dos colaboradores aparecem como principais barreiras à expansão.

Gill reforça que a confiança é “difícil de conquistar, fácil de perder e totalmente mensurável”. Sem ela, empresas correm o risco de afastar clientes, funcionários e parceiros, mesmo com tecnologias de ponta à disposição.

Papel da regulação

A análise também conecta os debates regulatórios ao tema da confiança. O AI Act da União Europeia, por exemplo, estabelece parâmetros de risco e princípios como transparência, justiça e responsabilidade. Iniciativas semelhantes vêm sendo discutidas em países como Austrália, em um esforço para reduzir incertezas e criar uma base comum de governança.

Segundo a Forrester, consumidores tendem a confiar mais em setores altamente regulados, como bancos, para implementar IA de forma responsável, do que em empresas de tecnologia, que tradicionalmente operam com menos restrições.

O estudo propõe um modelo atualizado de confiança que leva em conta diferentes níveis de risco percebidos pelos usuários. A mensagem central é clara: empresas que comunicam com clareza onde e como usam IA, oferecem mecanismos de supervisão e demonstram responsabilidade conquistam vantagem competitiva.

Para Gill, a adoção em larga escala da IA não será definida apenas por avanços técnicos, mas pela capacidade de empresas e governos em construir relações transparentes e confiáveis com a sociedade. “Consumidores podem estar confusos, mas certamente não querem ser enganados”, resume.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!