Skip to main content

redes sociais, AGU, stf, blockchain, mídias sociais (ECA Digital)

Entra em vigor nesta terça-feira (17) a Lei 15.211/2025, conhecida como ECA Digital, que estabelece novas regras para a atuação de plataformas digitais no Brasil com foco na proteção de crianças e adolescentes. A norma introduz exigências sobre design de produtos, uso de dados e mecanismos de verificação de idade, ampliando a responsabilidade das empresas sobre a experiência de usuários com menos de 18 anos.

A lei surge em um contexto de maior pressão regulatória sobre o ambiente digital, especialmente em relação ao acesso de crianças a redes sociais e conteúdos considerados inadequados. Diferentemente de iniciativas anteriores, mais focadas na remoção de conteúdo após denúncias, o texto adota uma abordagem preventiva, exigindo que plataformas incorporem medidas de proteção desde a concepção dos produtos.

Para Nic.br, uma das entidades envolvidas no debate sobre governança da internet no País, a mudança coloca novos parâmetros para o setor. “A segurança dessas crianças e adolescentes passa a ser um requisito de produto, não apenas uma resposta a incidentes”, afirma Kelli Angelini, assessora de políticas públicas da organização.

Leia também: AWS anuncia US$ 100 mi em créditos de nuvem e IA para a educação

Entre os pontos centrais da lei está a exigência de mecanismos mais robustos de verificação de idade. Plataformas e serviços que oferecem conteúdos ou produtos com restrição etária deixam de poder se basear apenas em autodeclaração do usuário e passam a ter que adotar métodos que comprovem a idade de forma mais consistente. A legislação, no entanto, não detalha quais tecnologias devem ser utilizadas, o que abre espaço para diferentes abordagens por parte das empresas.

A norma também restringe o uso de dados de crianças e adolescentes para fins publicitários. O perfilamento comportamental, prática comum no mercado digital para direcionamento de anúncios, passa a ser proibido quando envolve esse público. Além disso, o texto veda o uso de técnicas como análise emocional e recursos de realidade aumentada em campanhas direcionadas a crianças e adolescentes.

Na prática, essas mudanças afetam diretamente modelos de negócio baseados em publicidade segmentada. Empresas terão que adaptar sistemas de recomendação e monetização para atender às novas regras, o que pode exigir revisão de algoritmos e processos internos.

Nos últimos meses, algumas plataformas começaram a anunciar ajustes em suas operações, ainda que nem todos estejam diretamente relacionados à legislação brasileira. O Instagram, por exemplo, passou a adotar contas privadas por padrão para usuários mais jovens e implementou restrições em notificações e interações. Já o TikTok ampliou controles parentais e limitou funcionalidades como transmissões ao vivo para determinadas faixas etárias. No caso do WhatsApp, foram introduzidos recursos de supervisão voltados a responsáveis.

Especialistas apontam, no entanto, que essas iniciativas ainda não cobrem integralmente as exigências do ECA Digital, especialmente no que diz respeito à verificação de idade e à limitação do uso de dados.

Outro ponto em aberto é a implementação prática da lei. A ausência de definição sobre tecnologias específicas e a necessidade de conciliar proteção com privacidade criam desafios técnicos e jurídicos. Métodos mais rigorosos de verificação, como biometria ou envio de documentos, podem aumentar a segurança, mas também levantam preocupações sobre coleta e armazenamento de dados sensíveis.

Além disso, a efetividade da norma dependerá de mecanismos de fiscalização e da atuação de órgãos reguladores. A lei prevê responsabilização das plataformas em caso de descumprimento, mas ainda há dúvidas sobre como será feita a supervisão e quais serão as penalidades aplicadas.

Para Angelini, o texto não elimina o papel das famílias, mas redistribui responsabilidades. “A lei não substitui o acompanhamento dos responsáveis, mas estabelece que as empresas também precisam responder pelo ambiente que oferecem”, afirma.

O ECA Digital insere o Brasil em um movimento internacional de maior regulação sobre o uso de tecnologia por crianças e adolescentes. Países europeus e estados norte-americanos vêm adotando medidas semelhantes, com foco em transparência algorítmica, limitação de coleta de dados e segurança por padrão.

No caso brasileiro, a nova legislação deve levar a um período de adaptação para empresas que operam no País, especialmente aquelas com grande base de usuários jovens. O impacto tende a variar de acordo com o nível de maturidade das plataformas em relação a políticas de segurança e governança de dados.

Ao estabelecer regras mais claras para o desenho de produtos digitais voltados a crianças e adolescentes, a lei amplia o escopo de responsabilidade das empresas de tecnologia. A partir de agora, a forma como serviços são concebidos passa a ser parte central da discussão regulatória, com implicações diretas sobre operação, custos e estratégia.

É possível ter acesso ao descritivo completo e exigência do ECA Digital neste link.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!