O debate contemporâneo sobre o uso da inteligência artificial no sistema de justiça invoca uma emoção essencial: o medo. Não o medo paralisante, mas aquele que alerta, que convoca à vigilância ética e epistêmica.
Martha Gabriel, engenheira e estudiosa da tecnologia, em uma palestra do TEDx, lembra que esse medo pode ser pedagógico. É ele que nos obriga a perguntar: o que está em risco quando algoritmos aprendem a escrever, argumentar e até simular decisões? Perderão os seres humanos o seu lugar?
Ela recorda que o temor da substituição tecnológica não é novo. Os luditas, no século XIX, destruíam os teares mecânicos que ameaçavam seus empregos. Recentemente, repetindo esse pânico, roteiristas de Hollywood protestaram com uma greve contra textos escritos por máquinas.
Mas, há algo além disso. O que assombra, mais do que a perda de postos de trabalho, é a dissolução de um atributo da humanidade: a linguagem.
Se a linguagem é o que nos permite decidir, convencer, julgar e narrar o mundo, o que acontece quando ela é apropriada por entidades que não compreendem o que dizem, mas sabem como dizer? Nesse cenário, o medo é, antes de tudo, o medo de perder o lugar de protagonista na história. É o receio de que um dia as máquinas possam fazer conosco o que fazemos com elas.
Yuval Harari, em Nexus, argumenta que o homo sapiens se impôs no planeta não pela força, mas pela capacidade de compartilhar ficções: mitos, religiões, ideologias. Pode-se acrescentar que o Direito, nessa ordem de ideias, é uma ficção sofisticada, uma linguagem coletiva que organiza o poder, regula o conflito e institucionaliza expectativas.
Para Harari, a virada contemporânea está no fato de que, pela primeira vez, essa linguagem simbólica deixa de ser exclusivamente humana. Máquinas já produzem, organizam, replicam e validam linguagem jurídica com uma eficiência inédita. Com isso, pode-se aditar ao que diz o historiador israelense: nasce um novo ator no palco da Justiça, um ente sem sono, sem hesitação, sem valores, que apenas processa dados e os exprime em linguagem humanamente compreensível.
O processo judicial, até aqui espaço de legítimo dissenso interpretativo, de confronto narrativo, corre o risco de se transformar em campo de replicação estatística. Ferramentas que buscam padrões podem, ao decidir, cristalizar os parâmetros que elas definiram como apropriados. A inventividade, a criatividade, o espaço da misericórdia, da compaixão, da sensibilidade podem ser excluídos.
O perigo, como adverte Harari, não está na informação em si, mas em sua instrumentalização sem crítica.
É nessa encruzilhada que emerge a crítica de Lenio Streck, em suas recentes colunas para o portal Consultor Jurídico. Para ele, o Direito é linguagem interpretativa e não cálculo. A justiça só existe na medida em que há sujeitos, contextos e tensões. A aplicação da inteligência artificial, se for irrefletida, transforma o processo em linha de montagem.
Segundo Streck, o Judiciário brasileiro parece seduzido por uma promessa tecnocrática de eficiência, que desconsidera algumas das reais causas da crise da justiça: baixa qualidade da formação e das competências argumentativas, excesso normativo e precariedade institucional. Ele alerta para o paradoxo: “Se der certo, deu errado.”
Ele estima que, se a IA decidir, e se esse for o padrão de “perfeição”, não restará espaço para o contraditório: o algoritmo que decide será o mesmo que revisa, sustentando uma lógica autorreferente, sem abertura ao dissenso. Proverá a máquina um recurso interposto contra uma decisão dela mesma?
Mais grave ainda, a IA aprende com o passado. Busca dados e padrões estatísticos para converter em linguagem. Mas o passado judicial é repleto de desigualdades, vícios e omissões. Treinar uma máquina com essas bases é automatizar o erro. Trata-se de um “cinismo algorítmico”: a IA julga, revisa e valida a si mesma, como se fosse neutra.
Sem negar os riscos apontados por Streck, é preciso evitar o impasse nostálgico. Luna Barroso, em palestra proferida no XIII Fórum de Lisboa, reformula a pergunta: o direito fundamental é a uma decisão humana ou a uma decisão justa, compreensível, fundamentada, passível de revisão?
Para ela, a resposta não está em negar a IA como ferramenta de decisão, mas em desenhá-la com responsabilidade. Diante de um volume processual que supera 35 milhões de ações novas por ano, não há como sustentar a utopia artesanal da decisão judicial individualizada. O problema, por conseguinte, não é a máquina, mas o que se faz com ela.
Luna Barroso propõe que o foco regulatório esteja no design dos sistemas que produzem a decisão, não em sua revisão posterior. O ser humano deve definir o que pode ou não ser automatizado, exigir explicabilidade, estabelecer limites e fiscalizar sua implementação. O algoritmo pode decidir, desde que tenha sido desenvolvido com supervisão humana e seja transparente e fiscalizável. A decisão, ao final, continua humana, mas supervisionada por uma governança tecnológica ética e transparente.
Isso é arrojado. É preciso parar para refletir. A tecnologia não é neutra. Quando um algoritmo organiza precedentes, sugere minutas ou resume fatos, ele já está narrando o processo. E narrar é escolher: o que entra, o que sai, o que é ruído, o que é relevante.
Se o Direito é, como sustenta Harari, uma ficção compartilhada, o risco da IA não está em decidir, mas em padronizar o dissenso até silenciá-lo. O inesperado, aquele argumento improvável que abre uma nova perspectiva, pode ser expurgado como estatisticamente irrelevante.
Streck insiste: a exceção é o lugar da justiça. Se a IA organiza o processo para excluir a exceção, ela esvazia o próprio sentido do Direito. Inutiliza, também, o contraditório, que já é fragilizado em muitas práticas judiciais. Ele se torna um ritual oco.
Diante desse cenário, a questão que se impõe é como conviver com a inteligência artificial sem renunciar à justiça como espaço de linguagem crítica. Ao que tudo indica, três critérios mínimos se impõem.
Primeiramente, finalidade restrita e auditável: todo uso de IA deve ter escopo declarado e controle externo. O segredo algorítmico não pode sobrepor-se ao devido processo legal.
Segundo, supervisão humana qualificada: o juiz não pode ser mero endossante da decisão automatizada. É preciso capacitação técnica para compreender, aceitar ou rejeitar a proposta da máquina.
Terceiro, explicabilidade e motivação compreensível: se a IA participa da decisão, o jurisdicionado tem o direito de entender como e por que aquilo foi decidido. Sem a revelação e a motivação, não há contraditório possível.
A Resolução 615/2025, do Conselho Nacional de Justiça, parece ir nessa direção. Ela tenta regrar o uso de inteligência artificial no âmbito judicial. Mas, ao que tudo indica, é de difícil fiscalização. É que os juízes decidem em gabinete, reservadamente. É impossível controlar até onde foi o uso da IA.
Existem sinais de que magistrados têm se valido da IA não apenas para tarefas de síntese, de revisão de textos, mas de elaboração de minutas de decisão a partir de dados do processo transferidos para as aplicações, algumas das quais fornecidas pelos próprios tribunais aos seus membros. A crítica de Lênio Streck se faz, inclusive, com base em uma situação dessa natureza por ele detectada.
Se a IA entrega uma minuta de decisão pronta a partir de autos que ela analisou, ainda que se possa revisar o texto apresentado, a chance de aceite imediato é real. Trata-se de uma sugestão muito forte para quem está com sobrecarga de trabalho, pressionado pelo tempo e exigências de produtividade. A possibilidade de a decisão nesse caso ser realmente da máquina é imensa. Não à toa, existem notícias de decisões judiciais com alusões a fatos alheios ao processo ou a precedentes inexistentes. São as alucinações.
Talvez seja por isso que Luna Barroso defende que a supervisão não precisa ser caso a caso, mas no desenho estrutural do sistema. Isso implica definir limites, exigir transparência das empresas desenvolvedoras, garantir diversidade nos dados de treinamento e construir um ecossistema institucional que privilegie o controle público.
Parêntesis. O que se disse em relação aos julgadores vale também, mudando o que tem de ser mudado, para o exercício da advocacia. O Conselho Federal da OAB publicou a Recomendação 01/24 para orientar esse manejo. São frequentes as divulgações de peças em que há alusões a precedentes inexistentes, o que sinaliza a falta de letramento tecnológico de boa parte dos patronos. Há outro aspecto a notar. Embora seja simples para o advogado negociar com seu constituinte permissão para o uso de inteligência artificial, ele há sempre de ter em conta a proteção dos dados pessoais que lhe foram transferidos. Seriam os algoritmos confiáveis?
Umberto Eco, em uma obra de 1964, “Apocalípticos e Integrados”, descreveu o embate entre os que viam a cultura de massa como ameaça, a exemplo dos filósofos da Escola de Frankfurt, e os que celebravam sua disseminação, como o estudioso da comunicação Marshall McLuhan. Há um dilema semelhante com a IA. Os “apocalípticos” temem o fim do Direito como espaço de subjetividade. Os “integrados” celebram sua eficiência.
Mas talvez o caminho esteja entre ambos, na crítica vigilante. A inteligência artificial não é salvação nem condenação. É instrumento. E, como todo instrumento, precisa de controle, finalidade e limites.
Harari mostra que somos governados por ficções. O Direito é uma delas. Talvez a mais importante. Streck nos lembra que essa ficção só existe com dissenso, sujeito e interpretação. E Luna Barroso propõe uma saída: não negar a IA, mas regulá-la, domesticá-la, colocá-la a serviço da justiça.
Ela tem mesmo de ser domesticada. Porque, se o Direito quiser continuar sendo linguagem da justiça, não pode renunciar às pessoas. A IA pode auxiliar, mas nunca substituir o humano na tarefa de dizer o justo.