
O procurador-geral do Texas, nos Estados Unidos, Ken Paxton, abriu investigação contra a Meta e a Character.AI sob a acusação de práticas comerciais enganosas. Segundo comunicado divulgado na segunda-feira (18), as plataformas teriam se promovido de forma indevida como soluções de apoio em saúde mental, atraindo principalmente crianças e adolescentes.
Paxton destacou que, ao se apresentarem como fontes de suporte emocional, os chatbots de inteligência artificial (IA) criam uma falsa impressão de oferecer acompanhamento profissional. Para ele, esses sistemas, na realidade, entregam respostas genéricas elaboradas com base em dados coletados dos próprios usuários, o que pode colocar jovens em situação de vulnerabilidade.
Leia também: PL para regular big techs prevê suspensão em caso de ‘descumprimento generalizado’
Pressão crescente sobre a Meta
A investigação ocorre dias após o senador norte-americano Josh Hawley anunciar um inquérito contra a Meta. Um relatório recente revelou que alguns de seus chatbots teriam interagido de maneira imprópria com menores, inclusive em tom de flerte.
No caso do Texas, o foco está no fato de que tanto a Meta quanto a Character.AI disponibilizam personagens de IA que se apresentam como profissionais de saúde, mesmo sem credenciais médicas ou supervisão especializada. Na Character.AI, por exemplo, um bot chamado Psychologist se tornou popular entre usuários jovens.
Embora a Meta não ofereça diretamente chatbots voltados à terapia infantil, crianças ainda podem acessar o Meta AI ou personagens criados por terceiros com essa finalidade.
Empresas rebatem críticas
Em resposta ao TechCrunch, a Meta afirmou que seus modelos são claramente rotulados como sistemas de IA, com avisos sobre limitações e recomendações para que os usuários procurem profissionais qualificados em situações de risco.
Já a Character.AI declarou que cada conversa na plataforma traz um aviso de que as respostas são fictícias, além de reforços extras quando o personagem criado se refere a psicólogos, médicos ou terapeutas. Ainda assim, especialistas apontam que disclaimers nem sempre são compreendidos ou levados a sério por crianças.
Questões de privacidade e uso de dados
Outro ponto levantado por Paxton diz respeito à coleta de informações pessoais. Ele observou que, apesar de os chatbots sugerirem confidencialidade, os termos de serviço revelam registro e rastreamento de interações para alimentar algoritmos e direcionar publicidade.
De acordo com a política de privacidade da Meta, dados como prompts e feedbacks podem ser usados para aprimorar sistemas de IA e compartilhados com terceiros para personalizar resultados, prática que, na visão de críticos, se traduz em publicidade segmentada.
A Character.AI, por sua vez, informa coletar identificadores, dados demográficos, localização e comportamento de navegação. Esse material serve tanto para treinar modelos quanto para personalizar anúncios, além de ser compartilhado com parceiros de análise. A empresa admitiu que está começando a explorar a publicidade segmentada, mas negou usar o conteúdo das conversas para isso.
Debate legislativo em andamento
Tanto a Meta quanto a Character.AI afirmam que seus serviços não se destinam a menores de 13 anos. No entanto, a presença de personagens voltados ao público infantil e relatos de que filhos de executivos utilizam os chatbots reacendem o debate sobre segurança digital para crianças.
Esse cenário conecta-se à tramitação do Kids Online Safety Act (KOSA), projeto de lei que busca limitar coleta de dados e publicidade direcionada a menores. Apesar do amplo apoio bipartidário, a proposta foi barrada em 2024 após forte pressão do setor de tecnologia, incluindo lobby da Meta. Reapresentado ao Senado em maio de 2025, o texto volta à pauta em meio ao aumento das denúncias.
No Texas, Paxton emitiu ordens legais para que as empresas entreguem documentos, registros e depoimentos, a fim de verificar se houve violação das leis estaduais de proteção ao consumidor.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!


