A comissão do Conselho Nacional de Educação (CNE) responsável por elaborar a proposta de regulamentação da inteligência artificial (IA) na educação aprovou, nessa segunda-feira (11), o parecer que consolida diretrizes para o uso da tecnologia em escolas e universidades brasileiras. O texto ainda passará por consulta pública, votação no plenário do órgão e, por fim, precisará de homologação do Ministério da Educação (MEC).
A nova versão mantém a orientação de que a IA deve atuar como ferramenta de apoio ao ensino, sem substituir o papel do professor, e traz uma novidade: a criação de uma classificação regulatória por níveis de risco para aplicações educacionais, inspirada em referenciais internacionais da UNESCO e da OCDE.
Níveis de risco
O parecer estabelece quatro categorias para orientar redes de ensino e instituições sobre o uso seguro e responsável da tecnologia.
– Aplicações de baixo risco: ferramentas voltadas ao apoio cotidiano, como organização de materiais; recursos de acessibilidade; apoio textual.
– Aplicações de risco moderado: soluções que interagem diretamente com o processo pedagógico, como tutores virtuais; assistentes acadêmicos; sistemas de feedback automatizado.
– Aplicações de alto risco: tecnologias que exigem maior supervisão humana, como correção automatizada de avaliações; proctoring biométrico (monitoramento em provas); perfilização acadêmica.
– Aplicações proibidas ou incompatíveis: o texto considera incompatíveis com princípios educacionais vigilância emocional; sistemas de pontuação social; perfilização psicológica para fins disciplinares; decisões totalmente automatizadas sobre promoção ou permanência de estudantes.
Após a aprovação na comissão, o documento seguirá para consulta pública, etapa em que especialistas e a sociedade poderão sugerir ajustes. Em seguida, o texto será votado pelo plenário do CNE e encaminhado ao MEC para homologação.
A proposta busca orientar o uso pedagógico da inteligência artificial no país, estabelecer parâmetros de segurança e garantir que a adoção das ferramentas ocorra com supervisão humana, transparência e proteção de dados dos estudantes.
Fonte: O GLOBO







