ARACAJU/SE, 4 de maio de 2024 , 23:27:23

logoajn1

O uso da inteligência artificial para prender e o perfilamento racial dos suspeitos no Brasil

No clássico filme Casablanca, estrelado por Humphrey Bogart e Ingrid Bergman, dentre as várias frases antológicas, destaca-se a do capitão Renault ao ser avisado de um crime: “prendam os suspeitos de sempre”.

Identicamente ao procedimento policial de Casablanca, até os dias atuais no Brasil infelizmente continuam existindo os “suspeitos de sempre”, preferencialmente abordados pela polícia em locais públicos ou abertos ao público, objeto de revistas e busca e apreensão pessoal (submetidos ao famoso “baculejo”), presos em flagrante, reconhecidos pessoalmente ou por fotografia nas delegacias de polícia.

Cuida-se de fenômeno minuciosamente estudado pela advogada, professora e pesquisadora Jéssica da Mata em seu livro “A Política do Enquadro”, demonstrando a luz dos conceitos da criminologia, com farta análise de dados, quem são as pessoas consideradas pela polícia em “atitude suspeita”.

Inúmeros são os casos de erros crassos provocados por prisões realizadas por engano, reconhecimentos equivocados, pessoas que constam no banco de procurados da justiça, quando se tratam de investigados ou acusados completamente inocentes.

Referida situação é do conhecimento do Poder Judiciário que tem recomendado o uso criterioso dos meios de prova processual, rechaçando o enquadro policial, não validando prisões fundadas na suposta atitude suspeita do alvo, desacompanhadas de qualquer motivação idônea, buscando criar um sistema de precedentes que não tolere o erro judiciário, desaguando em condenações e no encarceramento de pessoas que são reconhecidas sem o mínimo de formalidade.

No último dia 11/04/2024 o Supremo Tribunal Federal concluiu o julgamento do habeas corpus nº. 208.240-SP e, em decisão unânime, fixou tese afirmando que são ilegais a abordagem policial e a revista pessoal motivadas por raça, sexo, orientação sexual, cor da pele ou aparência física.

Cuida-se de conclusão de constitucionalidade evidente. Entretanto, vivemos uma quadra histórica em que o óbvio precisa ser gritado a plenos pulmões e explicado nos mínimos detalhes.

A abordagem policial feita por agentes públicos deve ocorrer com cuidado, redobrada cautela e fundada em provas, ainda que indiciárias, evitando um perfilamento racial dos suspeitos.

A questão ganha contornos de complexidade ainda maior quando se insere o uso da Inteligência Artificial no reconhecimento facial de pessoas que in thesi são procuradas pela justiça com a existência de mandados de prisão expedidos ou são classificadas como fugitivos de unidades prisionais.

Desde a implantação desta tecnologia em vários estados brasileiros, inúmeros têm sido os erros catalogados e divulgados pela imprensa, causando vergonha e dor em todas as pessoas que são indevidamente apontadas pelo sistema como procuradas pela justiça quando em verdade são inocentes, desaguando em prisões completamente injustas e imotivadas.

Em Sergipe tivemos dois tristes episódios que geraram revolta da população ao tomar conhecimento dos constrangimentos suportados por cidadãos que foram confundidos pelo algoritmo.

O primeiro caso aconteceu no final do ano passado e envolveu uma auxiliar administrativa de 31 anos, que estava com amigas acompanhando o Pré-Caju e foi erroneamente identificada na mesma noite, por duas vezes, com uma foragida, sendo que em uma das abordagens policiais ela se encontrava ao lado do trio elétrico, passando a sofrer uma revista e posterior condução a delegacia de polícia, algemada no meio do público, gerando uma situação extremamente vexatória a ponto de fazer com que a jovem confundida pelo programa de Inteligência Artificial, viesse a urinar nas calças.

A ocorrência mais recente teve como vítima um personal trainer, de 23 anos, abordado após reconhecimento facial feito por Inteligência Artificial empregada no estádio de futebol lotado, durante a partida final do campeonato sergipano. O torcedor foi conduzido da arquibancada até o posto policial, passando pelo meio de toda a torcida, com a ação policial sendo filmada e ganhando ampla reprodução e repercussão.

Referidas situações foram tão graves e vexaminosas, provocando indeléveis consequências, que em ambos os casos o governador do estado veio a público pedir desculpas, tendo após o último fatídico acontecimento, acertadamente, determinado a imediata suspensão do emprego dessa tecnologia em festas e eventos públicos, condicionando o seu retorno ao aprimoramento das técnicas de abordagem policial.

Não é possível ser tolerante com o erro e as humilhações públicas de pessoas inocentes. Inexiste qualquer escusa que legitime a continuidade no uso de um sistema que se revelou extremamente falível e pode provocar graves consequências ao confundir condenados com inocentes, suspeitos com pessoas que nunca responderam a procedimento policial ou judicial, acusados com indivíduos que nunca sentaram no banco dos réus.

Todos esses episódios de erro no reconhecimento facial fruto da utilização de equipamento de Inteligência Artificial possuem em comum o fato de que as vítimas da identificação indevida são negros, ficando evidenciada a existência de um verdadeiro racismo algorítmico.

Pesquisa recente realizada pelo Centro de Estudos de Segurança e Cidadania (CESeC) da Universidade Candido Mendes/RJ, aponta para o impressionante percentual de 90,5% dos presos por reconhecimento facial no Brasil como sendo pessoas negras. Esses números revelam a atualidade da música do grupo Rappa ao afirmar que “todo camburão tem um pouco de navio negreiro”.

O sistema e o algoritmo possuem uma cor e uma aparência suspeita. Esta conclusão é absurda e completamente abjeta, evidenciando a imperiosa necessidade de combate ao racismo em todo o território brasileiro, consistindo em uma chaga que nos devora e se manifesta de múltiplas formas, com predileção para os suspeitos de sempre, àqueles com perfil racial da maioria da população carcerária brasileira.

O uso da Inteligência Artificial, vendido como verdadeira panaceia, como algo preciso, de fácil empregabilidade e múltiplas vantagens, não pode se dar sem maiores questionamentos. Toda e qualquer tecnologia deve ser empregada com um olhar cuidadoso, humano e individualizado, principalmente quando utilizada em apoio a atividade policial e na prestação jurisdicional.

A abordagem e eventual prisão em flagrante de um suspeito, acusação formal, instrução processual e julgamento de um caso criminal deve ser sinônimo de cuidado, atenção, limitação do poder estatal, respeito às garantias constitucionais e atuação criteriosa dos agentes públicos que investigam, acusam e julgam.

No entendimento do Prof. Geraldo Prado “quando operações de sistemas de reconhecimento facial são suficientes para prender alguém, as máquinas passam a ser os juízes de fato. E, por certo, essa ‘jurisdição das máquinas’ esconde cruéis jogos de poder”.

Esse julgamento por algoritmo jamais deve ser normalizado, aceito sem questionamentos e minimizado. A sociedade não deve tolerar a cultura do baculejo e do enquadro, tampouco aceitar o uso indiscriminado de critérios raciais nas prisões e abordagens policiais, com buscas e apreensões pessoais encetadas apenas com base na “postura suspeita” do cidadão, sem qualquer motivação ou contexto fático que comprovem a existência de indícios aptos a legitimarem a atuação estatal.

Não existem olhos que condenam, nenhum julgamento pode ser feito com base na raça, orientação sexual, cor da pele ou aparência física do suspeito e não se pode conviver com o racismo estrutural e institucional sem uma firme oposição. A Inteligência Artificial não deve repetir preconceitos da burrice natural de nossa sociedade.