O Supremo Tribunal Federal formou maioria para permitir que redes sociais sejam responsabilizadas civilmente por conteúdos de terceiros, mesmo sem decisão judicial. O entendimento derruba a exigência atual do Marco Civil da Internet, que condiciona a punição a ordens da Justiça.
O julgamento trata da constitucionalidade do artigo 19 da lei.
- O artigo 19 do Marco Civil da Internet estabelece que plataformas digitais só podem ser responsabilizadas por conteúdos de terceiros se descumprirem uma ordem judicial para removê-los.
Na prática, o artigo protege plataformas como Facebook, X (ex-Twitter), Google e TikTok de sanções por publicações de usuários. A regra foi criada em 2014 para evitar censura preventiva.
Com a mudança, ministros defendem que o cenário digital exige novas formas de proteção contra conteúdos ilícitos. A tese final ainda será definida, mas especialistas alertam para o risco de ampliar a censura online.
O julgamento deve ser concluído nesta quinta-feira (12).
Com o voto de Gilmar Mendes, o sexto a favor da responsabilização ampliada, o STF passou a entender que exigir uma decisão judicial para punir empresas como Facebook, X (ex-Twitter), Google e TikTok não é mais suficiente para conter a divulgação de conteúdos ilegais, como fake news, apologia ao crime e discursos de ódio.
No entanto, ministros da Corte argumentam que a realidade digital se transformou desde a aprovação do Marco Civil em 2014, e que o modelo atual não garante proteção adequada aos usuários. A votação será concluída nesta quinta-feira (12), com os votos de Edson Fachin e Alexandre de Moraes.
Gostaria de receber informação imparcial e de credibilidade? Clique aqui e conheça o RESUMO BP, a newsletter com a curadoria exclusiva da Brasil Paralelo.
Saiba como cada ministro votou
Dias Toffoli foi o primeiro a votar, ainda em dezembro, pela inconstitucionalidade do artigo 19 do Marco Civil
O voto prevê que redes sociais retirem conteúdos ofensivos após notificação por canais próprios, sem precisar de decisão judicial. Em casos graves — como racismo, terrorismo, incentivo ao suicídio, pornografia infantil, tráfico de pessoas e ataques ao Estado Democrático — a remoção deve ser imediata, mesmo sem denúncia.
A proposta também responsabiliza automaticamente as plataformas por contas falsas e anúncios de produtos ilegais.
Luiz Fux foi o segundo a votar. O ministro defendeu a inversão do modelo atual: a plataforma removeria o conteúdo imediatamente após notificação e, caso discorde, poderia buscar reintegração judicial.
Sugeriu também responsabilizar diretamente as plataformas por conteúdos ofensivos notificados “por qualquer meio idôneo”. Também reforçou a obrigação das plataformas de agir contra discurso de ódio, apologia ao golpe e conteúdos patrocinados ilegais.
Luís Roberto Barroso defendeu a constitucionalidade parcial do artigo 19, mantendo a exigência de ordem judicial para casos de calúnia, difamação e injúria, mas responsabilizando diretamente as plataformas por conteúdos como pornografia infantil, terrorismo, tráfico de pessoas e incentivo à violência.
Ao longo de seu voto, defendeu o “dever de cuidado” para casos em que a falha é sistêmica, e não pontual, e sugeriu que as big techs publiquem relatórios de transparência.
Flávio Dino propôs responsabilização sem ordem judicial em quatro casos: pornografia infantil, incitação ao suicídio, crimes contra o Estado Democrático de Direito e tráfico de pessoas. Introduziu a ideia de que a Procuradoria-Geral da República atue como órgão fiscalizador temporário até que o Congresso regulamente o tema. Dino também sustentou que as plataformas podem ser punidas por falhas sistêmicas na remoção de conteúdos ilegais repetidos.
Cristiano Zanin votou para diferenciar plataformas "neutras", que não atuam com curadoria algorítmica, daquelas que impulsionam conteúdo.
No primeiro caso, a responsabilidade seria acionada apenas após decisão judicial.
No segundo, bastaria a notificação do usuário. Para ele, o atual modelo do artigo 19 é incompatível com a lógica de funcionamento das redes sociais, que lucram com a viralização de conteúdos prejudiciais.
Gilmar Mendes foi o voto que consolidou a maioria no Supremo. O ministro propôs um modelo com quatro camadas de responsabilização para plataformas digitais:
- A primeira, residual, preserva o artigo 19 para casos de crimes contra a honra.
- A segunda, geral, estabelece que a notificação extrajudicial do usuário já basta para gerar responsabilidade.
- A terceira, por presunção, dispensa qualquer notificação quando houver impulsionamento de conteúdo.
- E a quarta, especial, impõe um dever ativo às plataformas em situações graves, como discurso de ódio, pornografia infantil e ataques ao regime democrático.
Mendes também criticou a falta de transparência dos algoritmos e defendeu medidas para tornar mais claros os critérios usados pelas empresas na promoção de conteúdo.



.webp)



.png)
.png)
.png)
.png)



.jpg)
.png)
.jpg)
.jpg)

.webp)

.jpg)






