Skip to main content

Uma fotografia mostra um homem sorridente com cabelo encaracolado e óculos, vestido de forma casual, com uma camisa preta estampada com um texto colorido. Ao lado dele, parcialmente visível, está o logótipo da empresa "Meta" sobre um fundo branco. A imagem combina o rosto do homem em destaque e o nome da empresa em plano de fundo.

A Meta anunciou que vai ampliar as restrições em seus chatbots de inteligência artificial (IA), impedindo que adolescentes usem os sistemas para conversar sobre temas sensíveis como suicídio, automutilação e transtornos alimentares. Em vez disso, os assistentes passarão a direcionar jovens a serviços e fontes especializadas de apoio, segundo a BBC.

A decisão surge duas semanas depois de um senador norte-americano abrir investigação sobre a empresa, após documentos internos vazados sugerirem que seus bots poderiam manter conversas de tom “sensual” com menores. A Meta classificou os registros como incorretos e contrários às suas políticas, que proíbem qualquer conteúdo de sexualização infantil.

Mesmo assim, a companhia comunicou ao TechCrunch que, como medida adicional, vai impor novas barreiras de segurança e restringir temporariamente o número de chatbots acessíveis a adolescentes.

Leia também: “Não é humano versus máquina, mas humano e máquina”, diz artista no IT Forum Praia do Forte 2025

Críticas de especialistas

Para Andy Burrows, diretor da fundação Molly Rose, é “assustador” que a empresa tenha liberado bots que poderiam expor jovens a riscos. Ele defende que testes rigorosos de segurança sejam feitos antes do lançamento, e não apenas após incidentes.

A Meta afirma que já mantém contas específicas para usuários de 13 a 18 anos no Facebook, Instagram e Messenger, com configurações de privacidade e conteúdo adaptadas. Em abril, informou que pais e responsáveis passaram a ter acesso à lista de chatbots com os quais os filhos interagiram nos últimos sete dias.

Riscos ampliados pelo uso da IA

A mudança ocorre em meio a crescentes preocupações sobre como assistentes de IA podem influenciar pessoas vulneráveis. Recentemente, um casal da Califórnia entrou com processo contra a OpenAI, alegando que o ChatGPT teria contribuído para a morte de seu filho adolescente.

Além disso, uma investigação da Reuters revelou que as ferramentas da Meta para criação de bots vinham sendo usadas para produzir avatares falsos de celebridades, incluindo versões que simulavam artistas como Taylor Swift e Scarlett Johansson. Em alguns casos, os bots se apresentavam como as próprias personalidades e faziam investidas de cunho sexual.

A agência também relatou a criação de avatares de celebridades mirins, inclusive com geração de imagens realistas de um jovem ator sem camisa. Parte desses conteúdos foi removida pela empresa.

A Meta declarou que suas políticas proíbem imagens nuas, íntimas ou sexualmente sugestivas, e que o AI Studio veda a personificação direta de figuras públicas.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!