O mecanismo costuma ser simples: fotos retiradas de redes sociais como Instagram e Snapchat são processadas por aplicativos chamados de “nudificadores” ou “undress apps”, que geram imagens falsas de nudez com poucos cliques e sem qualquer conhecimento técnico. O resultado é então compartilhado entre colegas por aplicativos de mensagens.
Uma pesquisa recente da Wired identificou incidentes de abuso sexual por deepfake em cerca de 90 escolas ao redor do mundo, afetando mais de 600 alunos. Mas os dados do levantamento representam apenas a parcela visível do fenômeno. Uma estimativa da Unicef aponta que 1,2 milhão de crianças tiveram deepfakes sexuais criados em seu nome no último ano.
Na Espanha, uma em cada cinco crianças ouvidas pela ONG Save the Children relatou ter sido alvo desse tipo de imagem. O grupo de proteção infantil Thorn identificou que um em cada oito adolescentes conhece alguém que foi vítima, e em 2024, 15% dos estudantes entrevistados pelo Centro para Democracia e Tecnologia disseram ter conhecimento de deepfakes gerados por IA ligados à sua escola.
“Seria difícil encontrar uma escola que não tenha sido afetada por isso”, disse ao Wired Lloyd Richardson, diretor de tecnologia do Centro Canadense de Proteção Infantil. “O mais importante é como conseguimos ajudar as vítimas quando isso acontece, porque os efeitos podem ser devastadores”.
O papel da IA na escala do problema
Deepfakes sexuais criados com IA existem desde o final de 2017, mas a ascensão dos sistemas de IA generativa ampliou consideravelmente o ecossistema de tecnologias de “nudificação”. Hoje, dezenas de aplicativos, bots e sites permitem que qualquer pessoa crie imagens e vídeos sexualizados de outras pessoas com apenas alguns cliques, sem nenhum conhecimento técnico.
“O que a IA muda é a escala, a velocidade e a acessibilidade”, disse à Wired Siddharth Pillai, cofundador da RATI Foundation, organização baseada em Mumbai voltada à prevenção de violência contra mulheres e crianças. “A barreira técnica caiu significativamente, o que significa que mais pessoas, incluindo adolescentes, conseguem produzir resultados mais convincentes com esforço mínimo”.
As motivações variam. Pesquisas do grupo Thorn indicam que os casos envolvem desde interesse sexual e vingança até curiosidade e desafios entre jovens. “O objetivo nem sempre é a gratificação sexual”, disse Pillai. “Cada vez mais, a intenção é humilhar, denegrir e exercer controle social.”
A forma como escolas e autoridades respondem a esses incidentes varia muito. Pais têm reclamado de omissão; em um caso, uma escola levou três dias para notificar a polícia; em outro, a vítima afirmou não ter havido consequências imediatas para os responsáveis. Em alguns casos, os alunos respondem por crimes relacionados a abuso sexual infantil ; em outros, enfrentam apenas suspensões.
O impacto sobre as vítimas é grave. “Ela se sente sem esperança porque sabe que essas imagens provavelmente vão parar na internet e chegar a pedófilos”, disseram à Wired advogados que representam uma adolescente de Nova Jersey em ação judicial contra um serviço de nudificação. “Ela terá que monitorar a internet pelo resto da vida para impedir que se espalhem”.
Em resposta ao problema, escolas na Coreia do Sul e na Austrália passaram a oferecer aos alunos a opção de não aparecerem em anuários. Além disso, removeram fotos de estudantes de suas redes sociais oficiais, citando o risco de uso indevido para a criação de deepfakes.
No plano legislativo, adolescentes e famílias têm pressionado por mudanças mais rápido que os governos. Entre as conquistas está o Take It Down Act, lei americana que obriga plataformas de tecnologia a remover imagens íntimas não consensuais em até 48 horas. Reino Unido e União Europeia trabalham em proibições a aplicativos de nudificação, e o regulador australiano de segurança digital já tomou medidas contra alguns serviços.
O problema, no entanto, vai além das alunas. Em múltiplos casos registrados, professores também foram alvo de deepfakes sexualmente explícitos criados por estudantes.
Fonte: Época Negócios





