A poucos dias da votação do projeto que regulariza o uso da inteligência artificial no país, o Ministério Público Federal (MPF) enviou à Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA), do Senado Federal, um estudo que apresenta sugestões ao Projeto de Lei 2.338/2023. Em uma das propostas, o órgão sugere que a Inteligência Artificial (IA) seja usada para prevenção, investigação, persecução e processo de crimes.
Segundo o MPF, o documento enviado ao Senado é baseado em um estudo do Grupo de Trabalho sobre Tecnologias da Informação e da Comunicação do MPF, com apoio do Centro de Informática da Universidade Federal de Pernambuco, da Secretaria-Executiva e Assessoria de Coordenação e da Secretaria de Perícia, Pesquisa e Análise da PGR.
Para o MPF, a restrição do uso da IA deve ser considerada em casos de avaliação de traços de personalidade do indivíduo. No entanto, deve ser possível a sua utilização para “apoiar a avaliação humana” nos casos criminais, desde que “embasados em fatos objetivos e verificáveis, como diretamente ligados a uma atividade criminosa”.
O uso da medida é polêmico e causa dissenso entre os especialistas, já que ferramentas de IA adotadas pela segurança pública em alguns lugares do país, como o reconhecimento facial, têm cometidos erros.
Em abril de 2023, o educador físico João Antônio Trindade, de 23 anos, foi preso em um estádio de futebol enquanto assistia ao Campeonato Sergipano, em Aracaju, depois uma ferramenta de reconhecimento apontá-lo como criminoso foragido. O jovem foi liberado pouco depois, quando a polícia constatou o erro.
Além da segurança pública, o MPF pontua outras sugestões para a regularização:
– O rol de vedações para implementação e uso de sistemas de inteligência artificial não deverá ser taxativo e deve incluir a previsão para que o órgão do sistema regulatório competente possa incluir novas atividades e usos vedados, mediante procedimento administrativo pertinente;
– Deve prever a possibilidade de uso de sistemas de identificação biométrica a distância (como reconhecimento facial, por exemplo) em caso de “ameaça real, substancial e iminente à vida ou à segurança física de pessoas singulares”;
– Prever que o desenvolvimento e o uso de sistemas de IA estejam sujeitos ao princípio da precaução, que permite a restrição de atividades ou direitos com base em riscos potenciais ou incertos.
Votação do PL
O PL deve ser votado no dia 12 de junho, no plenário do Senado.
Na segunda-feira (10), o plenário deve promover uma sessão de debates sobre o PL 2.338/2023, para que temas como disseminação de conteúdos gerados por meio de inteligência artificial passem por um processo de “validação pública”, segundo o relator, senador Eduardo Gomes (PL-TO).
“Até por uma questão de combate às fake news e à desinformação, temos que passar por um processo de validação. É preciso que aquele que faça a divulgação do conteúdo tenha a capacidade de mostrar a origem, a identificação. A gente não vai conseguir escapar disso. O anonimato contribui para o ambiente aberto e livre das redes sociais, mas isso tem um limite. Acho que, em determinadas ferramentas, a gente não vai conseguir escapar de uma validação: quem for responsável por um conteúdo tem que se identificar para que você possa exercer seus direitos”, afirmou à Agência Senado.
Fonte: Poder360