A agência das Nações Unidas para a infância (UNICEF) pediu, nessa quarta-feira (4), que países adotem leis para criminalizar a criação de conteúdo de abuso sexual infantil gerado por inteligência artificial (IA). O apelo ocorre diante do aumento de relatos sobre o uso de ferramentas de IA para produzir imagens que sexualizam crianças, prática que, segundo a entidade, tem causado danos reais e imediatos.
No mesmo contexto, o Reino Unido anunciou que pretende tornar ilegal o uso de ferramentas de IA para criar esse tipo de material, o que colocaria o país como o primeiro do mundo a criminalizar especificamente essa conduta. A proposta surge em meio a preocupações crescentes com o uso de sistemas generativos para produzir imagens, vídeos e áudios falsos envolvendo menores.
Aumento de casos e alerta da UNICEF
Em comunicado, a UNICEF afirmou estar alarmada com o crescimento de imagens sexualizadas de crianças produzidas por IA, conhecidas como deepfakes, que são conteúdos artificiais capazes de imitar pessoas reais de forma convincente. Para a agência, o impacto desse tipo de abuso é “real e urgente”, e a resposta legal não pode demorar.
Segundo dados divulgados pela própria organização, ao menos 1,2 milhão de crianças em 11 países relataram, no último ano, que tiveram suas imagens manipuladas para a criação de deepfakes sexualmente explícitos. A UNICEF também destacou a preocupação com a chamada “nudificação”, prática em que ferramentas de IA são usadas para remover ou alterar roupas em fotos, gerando imagens falsas de nudez ou teor sexual.
Além do apelo aos governos, a agência defendeu que desenvolvedores adotem abordagens de segurança desde a concepção dos sistemas, com mecanismos que dificultem o uso indevido dos modelos. A entidade também cobrou que empresas digitais reforcem a moderação de conteúdo, com investimentos em tecnologias de detecção para impedir a circulação dessas imagens.
Plataformas de IA sob escrutínio
O debate ganhou força com investigações recentes sobre o uso de chatbots para gerar esse tipo de material. Por exemplo, o Grok, da xAI, empresa de Elon Musk, passou a ser analisado por produzir imagens sexualizadas de mulheres e menores.
Uma investigação da Reuters apontou que o chatbot continuou gerando imagens desse tipo mesmo após usuários alertarem que as pessoas retratadas não haviam dado consentimento. Em resposta, a xAI informou em 14 de janeiro que restringiu a edição de imagens no Grok e passou a bloquear, com base na localização, a geração de imagens de pessoas com roupas reveladoras em jurisdições onde isso é ilegal.
A empresa não detalhou quais países estão incluídos. Antes disso, já havia limitado os recursos de geração e edição de imagens apenas a assinantes pagantes.
Fonte: Olhar Digital




