A VIRADA NO REGIME JURÍDICO DA RESPONSABILIDADE DAS PLATAFORMAS DIGITAIS NO BRASIL

28 de agosto de 2025

A recente decisão do Supremo Tribunal Federal que declarou a inconstitucionalidade parcial do artigo 19 do Marco Civil da Internet inaugura uma etapa de forte impacto no modo como o país lidará com a moderação de conteúdos digitais. Ainda sem a publicação do acórdão, paira considerável incerteza quanto à extensão prática da tese fixada, mas já é evidente que a lógica estabelecida até então sofreu um redirecionamento.

Desde sua origem, o Marco Civil buscava reproduzir um equilíbrio inspirado no modelo norte-americano do safe harbor, estabelecendo que as plataformas só responderiam por conteúdos ilícitos de terceiros mediante descumprimento de ordem judicial. Antes disso, vigorava a lógica da notificação extrajudicial, que transferia às empresas a responsabilidade de avaliar a legalidade de publicações.

O que agora se anuncia é uma inflexão: embora para crimes contra a honra ainda seja exigida decisão judicial, nos casos de delitos mais graves — como pornografia infantil, crimes de ódio, terrorismo e violência contra a mulher — passa a existir um dever imediato de remoção, sem necessidade de ordem judicial. O descumprimento desses deveres será interpretado como “falha sistêmica” na moderação, conceito que abre caminho para a responsabilização civil das plataformas.

Essa mudança aproxima o Brasil de modelos regulatórios europeus. Em países como a Alemanha, a Lei NetzDG, em vigor desde 2018, impõe a remoção de conteúdos “obviamente ilegais” em até 24 horas após denúncia, com prazos maiores para casos mais complexos. Além disso, exige relatórios de transparência, canais de denúncia acessíveis e representantes locais das plataformas. O não cumprimento pode resultar em multas milionárias.

A experiência alemã revelou avanços e dificuldades. O aumento expressivo de denúncias contrasta com uma taxa relativamente baixa de remoções efetivas, demonstrando a complexidade de identificar violações diante do volume massivo de conteúdo. A isso se soma o risco de overblocking, quando empresas retiram publicações preventivamente para evitar punições, restringindo indevidamente a liberdade de expressão.

Mais recentemente, a União Europeia consolidou no Digital Services Act (DSA) um modelo mais abrangente, impondo obrigações de transparência, auditorias independentes e avaliações periódicas de riscos sistêmicos, como disseminação de desinformação ou ameaças eleitorais. O DSA ainda diferencia responsabilidades de acordo com o porte e o tipo de plataforma, buscando maior proporcionalidade regulatória.

No Brasil, a aplicação da tese do Supremo demandará das empresas políticas internas consistentes, treinamento especializado e adoção de tecnologias avançadas de monitoramento e análise. Não se trata apenas de atender às exigências legais, mas também de preservar a confiança dos usuários e a integridade do debate público.

O grande desafio será traduzir tipos penais em protocolos objetivos, capazes de guiar a atuação de moderadores e sistemas automatizados, sem cair no risco de transferir integralmente às plataformas o papel de julgadoras — algo que sempre motivou cautela no modelo do Marco Civil.

O momento exige, portanto, um redesenho cuidadoso das práticas de moderação, em diálogo com referências estrangeiras, mas respeitando os fundamentos constitucionais locais. A construção de um ambiente digital que combine liberdade de expressão com a proteção contra abusos dependerá da capacidade de integrar soluções jurídicas, técnicas e éticas, capazes de evitar a chamada “falha sistêmica” e promover um espaço digital mais seguro e plural.