Nas últimas semanas, um dos assuntos mais discutidos entre pais, professores e especialistas em tecnologia foi a mobilização de crianças dentro do Roblox contra alterações nas regras de interação, sobretudo relacionadas ao chat de voz e aos novos métodos de verificação de idade. Apesar de parte dos usuários jovens ter protestado dentro do próprio ambiente virtual, as mudanças foram anunciadas com a finalidade de reforçar a segurança infantil. O caso reacendeu debates sobre privacidade, responsabilidade das plataformas e limites legais na proteção de crianças e adolescentes.
Para a advogada e professora de Direito da Universidade Tiradentes Clara Machado, a discussão ultrapassa o campo tecnológico e entra no jurídico. Ela afirma que o modelo tradicional de confirmação de idade baseado apenas na autodeclaração já não atende às exigências legais brasileiras. “O simples ‘clique aqui se você tem mais de 13 anos’ já não tem validade jurídica para isentar a plataforma de responsabilidade”, explica, ao comentar as determinações da Lei 15.211/2025, conhecida como ECA Digital.
Clara Machado destaca que a legislação introduz a noção de “acesso provável”, aplicada a serviços que, mesmo não sendo criados exclusivamente para crianças, acabam sendo amplamente utilizados por elas. Segundo ela, isso amplia a obrigação de cuidado das empresas. “Se uma plataforma é atrativa e facilmente acessível para menores, ela precisa implementar barreiras reais de proteção”, afirma, ressaltando que milhões de usuários abaixo de 13 anos utilizam o serviço diariamente.
A advogada observa que sistemas biométricos ou baseados em documentos representam avanço, mas não resolvem a questão isoladamente. “Para ser juridicamente adequado, o mecanismo precisa ser resistente a fraudes e funcionar de forma contínua, não só no cadastro”, diz. Relatórios da OCDE, lembra ela, mostram que predadores digitais frequentemente criam múltiplas contas para se passar por crianças e adolescentes.
Ela acrescenta que a legislação exige mecanismos automáticos de segurança para perfis infantis. “Se a verificação apenas adiciona um selo ao perfil, mas mantém chats abertos com adultos desconhecidos, ela é insuficiente diante do dever legal de reduzir riscos de aliciamento”, afirma. Para a jurista, a efetividade depende da estrutura completa de proteção, e não apenas de uma tecnologia isolada.
Biometria
O uso de reconhecimento facial para validar idade também levanta questionamentos. Clara explica que a coleta de biometria não é proibida, inclusive quando envolve crianças e adolescentes, desde que respeite critérios rigorosos. “Trata-se de um dado sensível e, quando envolve crianças, o risco é duplicado, exigindo proteção absoluta”, afirma.
Segundo ela, a legalidade está ligada à finalidade. “A biometria só pode ser utilizada para proteger a criança, como impedir acesso a conteúdo nocivo ou contato com predadores. Se for usada para marketing ou perfilamento, torna-se ilegal”, esclarece. A advogada ressalta que a lei exige relação direta entre coleta e proteção, sem desvios de finalidade.
Outro princípio é o da minimização de dados. “O ideal é que a plataforma receba apenas um ‘sim ou não’ sobre a idade, sem armazenar permanentemente a imagem facial da criança”, explica. Caso haja retenção dessas informações, ela aponta risco de violação dos princípios de necessidade e segurança previstos na legislação.
Ela também reforça a obrigatoriedade de consentimento dos responsáveis. “Para menores de 12 anos, a verificação facial sem autorização clara dos pais é uma violação direta da lei”, afirma. A preocupação das famílias é compreensível, já que o fornecimento de dados biométricos a empresas globais exige alto nível de transparência e controle técnico.
Dever digital
Se falhas no sistema permitirem que crianças e adolescentes sejam expostos a perigos, a plataforma pode responder judicialmente. A advogada explica que a nova legislação adota um modelo baseado no risco da atividade. “Se a empresa descumprir o dever de cuidado, poderá ser responsabilizada civil e administrativamente”, afirma.
Ela diz que, quando um mecanismo ineficaz permite acesso a ambiente prejudicial, isso pode ser enquadrado como falha na prestação do serviço. “Em danos graves previsíveis, como aliciamento ou exposição a conteúdo sexual, defendemos a responsabilidade objetiva da plataforma”, declara, ressaltando que não seria necessário provar culpa, apenas a falha e o prejuízo.
Sobre a divisão de responsabilidades, a especialista afirma que a lei estabelece um sistema compartilhado, mas desigual. “A proteção de crianças é dever conjunto da família, do Estado e da sociedade, incluindo empresas”, explica. Segundo ela, cláusulas contratuais que tentem transferir toda a obrigação aos pais podem ser consideradas inválidas.
Isso não elimina, porém, o papel da família na supervisão. “Os pais podem ser responsabilizados por negligência reiterada, mas a lei reconhece que é impossível vigiar 100% do tempo. Justamente por essa limitação humana, a norma exige que plataformas digitais ofereçam ambientes seguros por padrão”, afirma.
Ela conclui que o Brasil já dispõe de instrumentos jurídicos para fiscalizar empresas estrangeiras que atuam no país. “O desafio não é a ausência de leis, e sim a efetividade da aplicação, que depende de estrutura técnica e coordenação institucional. Com a entrada em vigor do ECA Digital, o país passa a ter base normativa mais clara para exigir proteção real ao público infantojuvenil no ambiente virtual”, finaliza.
Fonte: Asscom Unit





