ARACAJU/SE, 15 de maio de 2026 , 0:44:07

André Mendonça se opõe à responsabilização das redes pelo conteúdo de usuários

 

O ministro do Supremo Tribunal Federal (STF) André Mendonça votou, nessa quinta-feira (5), contra responsabilizar as redes sociais pela não remoção de conteúdos publicados por usuários, mesmo após decisão judicial. Segundo Mendonça, a responsabilidade deve recair sobre o autor da publicação, mas declarou ser inconstitucional suspender perfis.

O voto do magistrado mantém a validade do artigo 19 do Marco Civil da Internet, que é tema do julgamento em questão. Foi o único a votar nesse sentido, até o momento. Os demais ministros que votaram (Dias Toffoli, Luiz Fux e Roberto Barroso) defenderam a responsabilização das plataformas sem necessidade de ordem judicial.

O julgamento deve ser retomado na próxima semana com o voto do ministro Flávio Dino. Além dele, ainda faltam votar os ministros Nunes Marques, Cristiano Zanin, Cármen Lúcia, Gilmar Mendes, Alexandre de Moraes e Edson Fachin.

A leitura do voto de Mendonça levou duas sessões para ser concluída. Na 1ª parte, o ministro argumentou que a liberdade de expressão deve ser o elemento central da sua tese.

Na 2ª parte, ao proferir o voto em si, defendeu que as plataformas não podem ser responsabilizadas por não remover conteúdos publicados sem antes receber uma ordem judicial.

“Excetuados os casos expressamente autorizados em lei, as plataformas digitais não podem ser responsabilizadas pela ausência de remoção de conteúdo veiculado por terceiro, ainda que posteriormente qualificado como ofensivo pelo Poder Judiciário”, declarou Mendonça.

Defendeu, no entanto, que os usuários sejam os responsáveis pelo seu próprio conteúdo e não as plataformas, mas afirmou ser inconstitucional a suspensão de perfis.

“Ao suspender o perfil de determinado usuário ou o acesso aos serviços de toda uma plataforma digital em razão da produção sistemática de desinformação, por exemplo, busca-se impedir a veiculação de novas manifestações ante o risco de se consubstanciarem em novas transgressões ao ordenamento jurídico. Dito de forma direta: para evitar nova manifestação que possa configurar um ilícito, tolhe-se a possibilidade de qualquer manifestação”, disse.

Também definiu que, quando for necessário remover um conteúdo sem ordem judicial, ou seja, a partir da prática de moderação das próprias plataformas, alguns critérios deverão ser seguidos, como o uso de pessoas, e não algoritmos, para evitar falhas.

Ao longo de seu voto, Mendonça ressaltou o trabalho de moderação de conteúdo feito pelas próprias big techs com os resultados disponibilizados por elas, mas manifestou preocupação com a possibilidade de erros.

“Exemplos de erros de moderação trazidos pelo Idec [Instituto de Defesa do Consumidor] bem ilustram as dificuldades experimentadas pelo algoritmo para promover a remoção. Verificou-se a retirada de vídeo sobre o autoexame para evitar ou identificar câncer de mama. Ou de uma poetisa, Rupi Kaur, sobre menstruação. Ou ainda de jargões da linguagem LGBT vista fora de contexto como desrespeitosos, falhando no reconhecimento de seu valor social”, citou.

Também destacou a necessidade de deixar de fora da responsabilização os aplicativos de mensagens privadas, como o WhatsApp.

Por fim, fez um apelo aos Poderes Executivo e Legislativo para que, ao atualizar a legislação vigente, elaborem políticas públicas relacionadas ao tema. Sugeriu a adoção de uma estratégia centrada no modelo de autorregulação regulada, ou seja, com regras feitas pelas próprias plataformas (os Termos de Uso) e vigiadas por uma instância pública. No caso, citou que a Controladoria-Geral da União (CGU) poderia ser o órgão adequado para a tarefa.

Fonte: Poder360

 

 

 

Você pode querer ler também