• Sexta-feira, 6 de junho de 2025

Mendonça é contra responsabilizar redes pelo conteúdo de usuários

Ele divergiu dos demais ministros do STF, que votaram para derrubar a necessidade de ordem judicial para remoção.

O ministro do STF (Supremo Tribunal Federal) André Mendonça votou nesta 5ª feira (5.jun.2025) contra responsabilizar as redes sociais pela não remoção de conteúdos publicados por usuários, mesmo após decisão judicial. Segundo Mendonça, a responsabilidade deve recair sobre o autor da publicação, mas declarou ser inconstitucional suspender perfis.

O voto do magistrado mantém a validade do artigo 19 do Marco Civil da Internet, que é tema do julgamento em questão. Foi o único a votar nesse sentido, até o momento. Os demais ministros que votaram (Dias Toffoli, Luiz Fux e Roberto Barroso) defenderam a responsabilização das plataformas sem necessidade de ordem judicial.

O julgamento deve ser retomado na próxima semana com o voto do ministro Flávio Dino. Além dele, ainda faltam votar os ministros Nunes Marques, Cristiano Zanin, Cármen Lúcia, Gilmar Mendes, Alexandre de Moraes e Edson Fachin.

A leitura do voto de Mendonça levou duas sessões para ser concluída. Na 1ª parte, o ministro argumentou que a liberdade de expressão deve ser o elemento central da sua tese.

Na 2ª parte, ao proferir o voto em si, defendeu que as plataformas não podem ser responsabilizadas por não remover conteúdos publicados sem antes receber uma ordem judicial.

“Excetuados os casos expressamente autorizados em lei, as plataformas digitais não podem ser responsabilizadas pela ausência de remoção de conteúdo veiculado por terceiro, ainda que posteriormente qualificado como ofensivo pelo Poder Judiciário”, declarou Mendonça

Defendeu, no entanto, que os usuários sejam os responsáveis pelo seu próprio conteúdo e não as plataformas, mas afirmou ser inconstitucional a suspensão de perfis.

“Ao suspender o perfil de determinado usuário ou o acesso aos serviços de toda uma plataforma digital em razão da produção sistemática de desinformação, por exemplo, busca-se impedir a veiculação de novas manifestações ante o risco de se consubstanciarem em novas transgressões ao ordenamento jurídico. Dito de forma direta: para evitar nova manifestação que possa configurar um ilícito, tolhe-se a possibilidade de qualquer manifestação”, disse.

Também definiu que, quando for necessário remover um conteúdo sem ordem judicial, ou seja, a partir da prática de moderação das próprias plataformas, alguns critérios deverão ser seguidos, como o uso de pessoas, e não algoritmos, para evitar falhas.

Ao longo de seu voto, Mendonça ressaltou o trabalho de moderação de conteúdo feito pelas próprias big techs com os resultados disponibilizados por elas, mas manifestou preocupação com a possibilidade de erros.

“Exemplos de erros de moderação trazidos pelo Idec [Instituto de Defesa do Consumidor] bem ilustram as dificuldades experimentadas pelo algoritmo para promover a remoção. Verificou-se a retirada de vídeo sobre o autoexame para evitar ou identificar câncer de mama. Ou de uma poetisa, Rupi Kaur, sobre menstruação. Ou ainda de jargões da linguagem LGBT vista fora de contexto como desrespeitosos, falhando no reconhecimento de seu valor social”, citou.

Também destacou a necessidade de deixar de fora da responsabilização os aplicativos de mensagens privadas, como o WhatsApp.

Por fim, fez um apelo aos Poderes Executivo e Legislativo para que, ao atualizar a legislação vigente, elaborem políticas públicas relacionadas ao tema. Sugeriu a adoção de uma estratégia centrada no modelo de autorregulação regulada, ou seja, com regras feitas pelas próprias plataformas (os Termos de Uso) e vigiadas por uma instância pública. No caso, citou que a CGU (Controladoria Geral da União) poderia ser o órgão adequado para a tarefa.

Eis a íntegra da tese proposta por Mendonça:

“Concluiu pela plena constitucionalidade do art. 19 do Marco Civil da Internet, a Lei nº 12.965/2014, e sugeriu a fixação das seguintes teses de julgamento:

Serviços de mensageria privada não podem ser equiparados à mídia social. Em relação a tais aplicações de internet, prevalece a proteção à intimidade, vida privada, sigilo das comunicações e proteção de dados. Portanto, não há que se falar em dever de monitoramento ou autorregulação na espécie.

É inconstitucional a remoção ou a suspensão de perfis de usuários, exceto quando [a] comprovadamente falsos – seja porque (i) relacionados a pessoa que efetivamente existe, mas denuncia, com a devida comprovação, que não o utiliza ou criou; ou (ii) relacionados a pessoa que sequer existe fora do universo digital (“perfil robô”); ou [b] cujo objeto do perfil seja a prática de atividade em si criminosa.

As plataformas em geral, tais como mecanismos de busca, marketplaces etc., tem o dever de promover a identificação do usuário violador de direito de terceiro (art. 15 c/c art. 22 do MCI). Observado o cumprimento da referida exigência, o particular diretamente responsável pela conduta ofensiva é quem deve ser efetivamente responsabilizado via ação judicial contra si promovida.

Nos casos em que admitida a remoção de conteúdo sem ordem judicial (por expressa determinação legal ou conforme previsto nos Termos e Condições de Uso das plataformas), é preciso assegurar a observância de protocolos que assegurem um procedimento devido, capaz de garantir a possibilidade do usuário [a] ter acesso às motivações da decisão que ensejou a exclusão, [b] que essa exclusão seja feita preferencialmente por humano [uso excepcional de robôs e inteligência artificial no comando de exclusão]; [c] possa recorrer da decisão de moderação, [d] obtenha resposta tempestiva e adequada da plataforma, dentre outros aspectos inerentes aos princípios processuais fundamentais.

Excetuados os casos expressamente autorizados em lei, as plataformas digitais não podem ser responsabilizadas pela ausência de remoção de conteúdo veiculado por terceiro, ainda que posteriormente qualificado como ofensivo pelo Poder Judiciário, aí incluídos os ilícitos relacionados à manifestação de opinião ou do pensamento.

Há possibilidade de responsabilização, por conduta omissiva ou comissiva própria, pelo descumprimento dos deveres procedimentais que lhe são impostos pela legislação, aí incluída [a] a obrigação de aplicação isonômica, em relação a todos os seus usuários, das regras de conduta estabelecidas pelos seus Termos e Condições de Uso, os quais devem guardar conformidade com as disposições do Código de Defesa do Consumidor e com a legislação em geral; e [b] a adoção de mecanismos de segurança digital aptos a evitar que as plataformas sejam utilizadas para a prática de condutas ilícitas.

Em observância ao devido processo legal, a decisão judicial que determinar a remoção de conteúdo [a] deve apresentar fundamentação específica, e, [b] ainda que proferida em processo judicial sigiloso, deve ser acessível à plataforma responsável pelo seu cumprimento, facultada a possibilidade de impugnação.”

Mendonça divergiu dos demais ministros que já haviam votado. Toffoli e Fux, relatores dos casos em julgamento, propuseram teses para derrubar a necessidade de uma ordem judicial antes de remover conteúdo de usuários das redes sociais.

Barroso, no entanto, divergiu parcialmente dos colegas. Defendeu que a responsabilização deve ser feita quando as empresas deixarem de tomar providências para remover publicações que envolvem crimes contra a honra (calúnia, injúria e difamação).

O julgamento definirá como as empresas donas de redes sociais devem agir quando seus usuários publicarem conteúdos considerados ilegais. Os ministros discutem a validade do artigo 19 do Marco Civil da Internet.

O que diz o artigo 19:

[print]

O dispositivo estabelece que as redes sociais poderão ser responsabilizadas por conteúdo publicado por seus usuários somente se deixarem de cumprir a decisão de um juiz para remoção. Portanto, sem a determinação judicial, não há responsabilização.

Há 2 recursos em análise, um do Google, da relatoria do ministro Luiz Fux, e outro do Facebook, cujo relator é o ministro Dias Toffoli. Entenda:

Não fica claro, no entanto, de que forma a responsabilização funcionaria.

Plataformas como Facebook, Instagram e X têm a opção “denunciar” em seus posts. Se um usuário se sentir ofendido, bastará ele notificar a plataforma e a publicação será automaticamente excluída? Também não se sabe quem definiria se uma postagem deve ou não ser apagada.

Por: Poder360

Artigos Relacionados: