O decreto que regulamenta o chamado ECA Digital, previsto para entrar em vigor em 17 de março, deve estabelecer um sistema de verificação de idade por etapas nas plataformas digitais, levando em conta o nível de risco de cada serviço oferecido. A proposta, em elaboração pelo Ministério da Justiça, busca ampliar a proteção de crianças e adolescentes no ambiente online e ainda pode sofrer alterações antes da publicação final.
A minuta preliminar prevê que a checagem etária não será uniforme para todo o mercado. Em vez disso, os mecanismos deverão variar conforme o tipo de conteúdo e o risco potencial para menores, com exigências mais rigorosas para serviços considerados sensíveis, como plataformas com conteúdo adulto ou apostas. As informações são do Jota.
Verificação de idade com foco em privacidade
O modelo proposto estabelece princípios para a verificação etária, como minimização de dados pessoais, proteção da privacidade e proibição de rastreabilidade da identidade e do histórico de navegação dos usuários.
O texto também veda o compartilhamento contínuo e irrestrito de dados pessoais entre plataformas e determina que as soluções adotadas sejam interoperáveis entre sistemas públicos e privados.
Segundo a minuta, os detalhes técnicos sobre como será feita essa verificação, incluindo tecnologias utilizadas, deverão ser definidos posteriormente pela Agência Nacional de Proteção de Dados (ANPD).
ANPD terá papel central na implementação
O decreto coloca a ANPD no centro da governança do ECA Digital. Caberá à autoridade definir requisitos mínimos de transparência, segurança e interoperabilidade dos sistemas de verificação de idade, além de disciplinar a certificação das soluções tecnológicas.
A agência também será responsável por estabelecer as etapas de implementação do modelo e poderá exigir medidas adicionais de proteção quando identificar riscos maiores para crianças e adolescentes.
A proposta prevê ainda que a ANPD adote uma abordagem considerada “responsiva”, levando em conta fatores como o nível de risco de cada produto digital, a evolução tecnológica e os padrões técnicos disponíveis.
Plataformas e lojas de aplicativos terão papel na checagem
De acordo com a minuta, lojas de aplicativos e sistemas operacionais devem se tornar peças-chave no processo de verificação etária. Essas empresas deverão fornecer sinais de idade às plataformas digitais, sem repassar dados sensíveis como data de nascimento exata ou documentos de identidade.
O objetivo é permitir a confirmação da faixa etária do usuário sem ampliar a coleta de dados pessoais.
O texto também prevê que essas empresas solicitem a declaração de idade ou faixa etária no momento da criação de contas, adotem mecanismos para verificar essas informações e impeçam a criação de múltiplas contas usadas para burlar os sistemas de controle.
O governo também avalia integrar a verificação etária à infraestrutura de identificação digital do gov.br, permitindo confirmar a vinculação de contas a responsáveis legais.
Combate ao uso compulsivo e práticas manipulativas
Além da verificação de idade, o decreto também prevê medidas para reduzir o uso excessivo de plataformas por crianças e adolescentes.
Empresas que oferecem produtos digitais direcionados ou com acesso provável por menores deverão adotar mecanismos para evitar uso compulsivo ou problemático.
Entre as práticas que poderão ser alvo de restrições estão notificações excessivas, reprodução automática de conteúdos e sistemas de recompensa que incentivem longos períodos de permanência nas plataformas.
O texto também classifica como práticas vedadas arquiteturas digitais que explorem vulnerabilidades cognitivas de crianças e adolescentes ou dificultem o cancelamento de serviços, o acesso a controles de privacidade ou a supervisão parental.
Conteúdos de alto risco terão exigências mais rígidas
A minuta prevê regras específicas para ambientes considerados de maior risco, como sites pornográficos. Nesses casos, as plataformas deverão adotar mecanismos próprios de verificação de idade para impedir o acesso por menores.
No caso das redes sociais, empresas que exibirem publicidade ou conteúdos proibidos a menores deverão escolher entre duas opções: criar versões das plataformas sem esse tipo de material ou implementar sistemas efetivos de verificação de idade.
A proposta também exige controle etário em jogos eletrônicos que utilizem “loot boxes”, caixas de recompensa virtuais associadas a compras dentro dos jogos.
Centro nacional para monitorar crimes contra menores
O decreto ainda prevê a criação do Centro Nacional de Triagem de Notificações, dentro da Polícia Federal, para analisar comunicações enviadas por plataformas sobre possíveis crimes cibernéticos envolvendo exploração sexual, aliciamento ou sequestro de menores.
Essa estrutura deverá reunir informações e encaminhá-las às autoridades responsáveis pelas investigações, além de produzir relatórios periódicos de transparência.
Monetização de conteúdo com menores também será regulada
Outro ponto previsto na minuta é a restrição à monetização de conteúdos que envolvam crianças e adolescentes.
Plataformas deverão exigir autorização judicial antes de permitir a monetização ou impulsionamento de conteúdos produzidos por menores ou que exponham sua imagem e rotina, ainda que publicados pelos próprios responsáveis.
A proposta também proíbe a monetização de conteúdos que exponham crianças a situações consideradas vexatórias ou violadoras.
A medida surge após debates recentes sobre exploração da imagem de menores nas redes sociais.