ARACAJU/SE, 15 de maio de 2026 , 0:35:49

Uso do reconhecimento facial preocupa entidades

 

Enquanto autoridades defendem o uso de câmaras  de reconhecimento facial como eficaz para o combate à criminalidade, especialistas em direitos humanos e segurança apontam os riscos de ampliação do racismo e da privação de liberdade.

Horrara Moreira é advogada e coordenadora da campanha Tire Meu Rosto da Sua Mira, que defende o “banimento total do uso das tecnologias digitais de reconhecimento facial na segurança pública no Brasil”. Ela diz que o primeiro problema a ser considerado é a ocorrência de prisões equivocadas.

“Há o problema da identificação, quando acontece algum erro nas informações biométricas do rosto e na comparação delas com o banco de dados. E existem os erros decorrentes dos trâmites do próprio sistema de justiça, como mandados de prisão que estão vencidos ou que já foram cumpridos”, alerta Horrara.

E se fosse possível melhorar as tecnologias disponíveis, a ponto de praticamente zerar o número de erros? Mesmo assim, Horrara afirma que não impediria um outro problema grave, a característica inerentemente racista do sistema.

“Muitas tecnologias de reconhecimento facial usam a inteligência artificial como regra de processamento matemático. Ela pode ser de deep learning ou de machine learning, em que você fornece previamente um banco de dados, para que ela aprenda a identificar os rostos de pessoas no geral. E você também precisa definir critérios de quem é homem, mulher, branco, negro, e ensinar a máquina a identificar esses padrões. Qualquer enviesamento nesse treinamento da máquina vai influenciar na taxa de precisão. E o treinamento não é transparente. Se eu dou mais informações para a máquina sobre pessoas negras, ela pode indicar que pessoas negras cometem mais crimes do que pessoas brancas”, avalia a advogada.

Thalita Lima coordena o Panóptico, projeto sobre reconhecimento facial do Centro de Estudo de Segurança e Cidadania (CESeC). Ela defende que a tecnologia não produz impacto significativo na redução da criminalidade e cita os exemplos de Salvador e do Rio de Janeiro para corroborar o argumento.

“Há o problema da identificação, quando acontece algum erro nas informações biométricas do rosto e na comparação delas com o banco de dados. E existem os erros decorrentes dos trâmites do próprio sistema de justiça, como mandados de prisão que estão vencidos ou que já foram cumpridos”, alerta Horrara.

E se fosse possível melhorar as tecnologias disponíveis, a ponto de praticamente zerar o número de erros? Mesmo assim, Horrara afirma que não impediria um outro problema grave, a característica inerentemente racista do sistema.

“Muitas tecnologias de reconhecimento facial usam a inteligência artificial como regra de processamento matemático. Ela pode ser de deep learning ou de machine learning, em que você fornece previamente um banco de dados, para que ela aprenda a identificar os rostos de pessoas no geral. E você também precisa definir critérios de quem é homem, mulher, branco, negro, e ensinar a máquina a identificar esses padrões. Qualquer enviesamento nesse treinamento da máquina vai influenciar na taxa de precisão. E o treinamento não é transparente. Se eu dou mais informações para a máquina sobre pessoas negras, ela pode indicar que pessoas negras cometem mais crimes do que pessoas brancas”, avalia a advogada.

Thalita Lima coordena o Panóptico, projeto sobre reconhecimento facial do Centro de Estudo de Segurança e Cidadania (CESeC). Ela defende que a tecnologia não produz impacto significativo na redução da criminalidade e cita os exemplos de Salvador e do Rio de Janeiro para corroborar o argumento.

Fonte Agência Brasil

Você pode querer ler também