
A história da inteligência artificial (IA) remonta a décadas, mas a questão central que acompanha seu avanço permanece a mesma: não se trata apenas de perguntar “podemos?”, mas sim “devemos?”.
Essa provocação é levantada por Martin Gill, vice-presidente e diretor de pesquisas da Forrester, em relatório publicado em setembro de 2025, no qual destaca a confiança como o fator determinante para acelerar a adoção da tecnologia em larga escala.
Gill relembra como, nos anos 1960, experimentos pioneiros como o chatbot ELIZA, de Joseph Weizenbaum, e o modelo PARRY, de Kenneth Colby, já apontavam para dilemas éticos da interação homem-máquina. A ficção científica também ajudou a esquentar esse debate, de Mary Shelley a Isaac Asimov, com suas célebres “três leis da robótica”.
Hoje, a discussão deixa de ser teórica. Influenciadores digitais como Lil Miquela, com mais de 2 milhões de seguidores no Instagram, ou a banda Velvet Sundown, que acumula milhões de streams, mostram como entidades artificiais já competem diretamente pela atenção de consumidores, muitas vezes sem transparência sobre sua natureza.
Esse fenômeno intensifica a chamada “uncanny valley”, a estranheza causada por entidades quase humanas, e levanta uma questão crucial: quem (ou o quê) realmente merece confiança?
Leia também: Angélica Vitali, da T-Systems, equilibra introversão e comunicação na liderança
Confusão entre consumidores
Dados do Forrester Consumer Benchmark Survey 2025 revelam o tamanho do desafio. Na Austrália, 68% dos consumidores acreditam que chatbots usam IA, mas apenas 58% associam a tecnologia a carros autônomos. No Reino Unido, a percepção é ainda mais distorcida, embora 80% dos entrevistados defendam que empresas devem ser transparentes e informar claramente onde a IA é aplicada.
Esse desencontro entre realidade e percepção demonstra que a resistência à IA não está na tecnologia em si, mas na forma como é comunicada e regulada.
Segundo a Forrester, entre 30% e 40% das empresas no mundo já aplicam IA em produção para melhorar a experiência do cliente, seja otimizando equipes de atendimento, analisando interações em call centers ou interpretando feedbacks.
No entanto, para a maioria das organizações que ainda não avançaram, os entraves não são técnicos. Questões ligadas à ética, privacidade, transparência e preparo dos colaboradores aparecem como principais barreiras à expansão.
Gill reforça que a confiança é “difícil de conquistar, fácil de perder e totalmente mensurável”. Sem ela, empresas correm o risco de afastar clientes, funcionários e parceiros, mesmo com tecnologias de ponta à disposição.
Papel da regulação
A análise também conecta os debates regulatórios ao tema da confiança. O AI Act da União Europeia, por exemplo, estabelece parâmetros de risco e princípios como transparência, justiça e responsabilidade. Iniciativas semelhantes vêm sendo discutidas em países como Austrália, em um esforço para reduzir incertezas e criar uma base comum de governança.
Segundo a Forrester, consumidores tendem a confiar mais em setores altamente regulados, como bancos, para implementar IA de forma responsável, do que em empresas de tecnologia, que tradicionalmente operam com menos restrições.
O estudo propõe um modelo atualizado de confiança que leva em conta diferentes níveis de risco percebidos pelos usuários. A mensagem central é clara: empresas que comunicam com clareza onde e como usam IA, oferecem mecanismos de supervisão e demonstram responsabilidade conquistam vantagem competitiva.
Para Gill, a adoção em larga escala da IA não será definida apenas por avanços técnicos, mas pela capacidade de empresas e governos em construir relações transparentes e confiáveis com a sociedade. “Consumidores podem estar confusos, mas certamente não querem ser enganados”, resume.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

