:root { --editorial-color: #556373; } body { writing-mode: horizontal-tb; font-family: var(--font-family-primary, sans-serif), sans-serif; }
Logo R7.com
Logo do PlayPlus
R7 Brasília

Mendonça libera para julgamento ações sobre remoção de conteúdos ilegais nas redes

STF discute regras para redes sociais retirarem conteúdos ilegais e como podem ser responsabilizadas

Brasília|Do R7, em Brasília

André Mendonça
Mendonça tinha pedido vista no julgamento Fellipe Sampaio/STF - 8.5.2025

O ministro do STF (Supremo Tribunal Federal) André Mendonça devolveu para julgamento duas ações que vão definir se plataformas digitais podem ser responsabilizadas por conteúdos que os usuários publicam. Mendonça tinha pedido vista — mais tempo para analisar os casos — em dezembro do ano ado. Agora, cabe ao presidente do STF, Luís Roberto Barroso, marcar uma nova data para o julgamento.

O Supremo analisa a constitucionalidade do artigo 19 do Marco Civil da Internet, que diz que as plataformas só são obrigadas a retirar conteúdos considerados ilegais se houver uma ordem da Justiça, com algumas exceções.

leia mais

Antes do pedido de vista de Mendonça, três ministros tinham votado nos casos. O relator de uma das ações, Luiz Fux, defendeu que as plataformas podem, sim, ser responsabilizadas sem precisar esperar uma decisão judicial, em algumas situações.

Segundo ele, se as plataformas sabem que um conteúdo é criminoso por ser obviamente ilegal, elas têm a obrigação de remover esse conteúdo imediatamente. Se não fizerem, podem ser processadas e pagar indenização. O ministro considerou como conteúdos obviamente ilegais postagens que envolvem:


  • Discurso de ódio;
  • Racismo;
  • Pedofilia;
  • Incitação à violência;
  • Defesa de golpe de Estado ou de acabar com a democracia.

Nessas situações, Fux entende que as plataformas têm que ter um monitoramento ativo, ou seja, precisam acompanhar e agir rapidamente para evitar esse tipo de conteúdo.

Segundo o voto do ministro, quando se trata de ofensas contra uma pessoa, como ataques à honra, imagem ou privacidade, a plataforma só é obrigada a agir se for avisada previamente pela vítima.


Voto de Dias Toffoli

Relator de outra ação, o ministro Dias Toffoli votou para declarar a inconstitucionalidade do artigo 19 do Marco Civil da Internet, determinando a responsabilização civil dos provedores de aplicações de internet em diversas situações relacionadas a conteúdo de terceiros, especialmente quando não removem conteúdo ilícito após notificação ou em casos específicos como contas falsas e conteúdo impulsionado.

De forma geral, as plataformas podem ser responsabilizadas por danos causados por conteúdos publicados por seus usuários quando, após serem avisadas pela pessoa prejudicada, não tomarem providências em tempo razoável para remover esse conteúdo.


Porém, Toffoli entende que em algumas situações a plataforma deve responder imediatamente, sem precisar de aviso prévio. Isso acontece quando:

  • Elas próprias ajudam a divulgar o conteúdo, seja recomendando, impulsionando (pago ou não) ou moderando;
  • O conteúdo vem de uma conta falsa, anônima ou robô (automatizada); e
  • O conteúdo viola direitos autorais
  • A remoção também deve ser automática em situações como
  • Ataques contra a democracia e tentativa de golpe de Estado;
  • Terrorismo ou preparação para atos terroristas;
  • Incentivo, apoio ou ajuda a suicídio e automutilação;
  • Racismo;
  • Violência contra crianças, adolescentes, mulheres e pessoas vulneráveis;
  • Quebra de regras sanitárias em emergências de saúde pública;
  • Tráfico de pessoas;
  • Incitação ou ameaça de violência física ou sexual;
  • Divulgação de notícias falsas que incentivem a violência física ou coloquem vidas em risco;
  • Fake news com potencial de prejudicar eleições ou ameaçar sua integridade.

Voto de Barroso

Barroso abriu divergência em relação a Fux e Toffoli. O STF propôs um modelo com três regras diferentes, dependendo do tipo de conteúdo.

Para ofensas pessoais, crimes contra a honra e outros problemas civis, continua valendo a regra atual: a plataforma só é obrigada a retirar o conteúdo se tiver uma ordem judicial.

Para crimes mais graves, como racismo, pedofilia, terrorismo e golpes contra a democracia, basta uma notificação simples, sem precisar de decisão da Justiça. A plataforma deve agir rapidamente após ser avisada.

Quando o conteúdo é um anúncio pago ou impulsionado, entende-se que a plataforma já sabe do que se trata, então ela pode ser responsabilizada sem precisar de notificação, a não ser que consiga provar que agiu rapidamente para remover o problema.

No voto, Barroso destacou que as plataformas precisam ter um dever de cuidado maior. Isso significa que elas devem agir para prevenir riscos graves para a sociedade.

Fique por dentro das principais notícias do dia no Brasil e no mundo. Siga o canal do R7, o portal de notícias da Record, no WhatsApp

Últimas


Utilizamos cookies e tecnologia para aprimorar sua experiência de navegação de acordo com oAviso de Privacidade.