
Na última quinta-feira (26/06/2025), o Supremo Tribunal Federal (STF) concluiu o julgamento sobre a constitucionalidade do artigo 19 do Marco Civil da Internet (Lei nº 12.965/2014). Por maioria de 8 votos a 3, a Corte declarou parcialmente inconstitucional o dispositivo, alterando significativamente o regime de responsabilidade civil dos provedores de aplicação por conteúdos publicados por terceiros.
O entendimento anterior condicionava a responsabilização das plataformas à existência de ordem judicial prévia para a remoção do conteúdo ilícito. Com a nova interpretação, essa exigência se mantém apenas para os casos que envolvam crimes contra a honra. Em todas as demais hipóteses, a responsabilização poderá ocorrer independentemente de ordem judicial, sempre que houver omissão ou falha sistêmica na moderação.
Confira, a seguir, os principais efeitos práticos da tese de repercussão geral:
- Responsabilidade por falha sistêmica: As plataformas não serão responsabilizadas por publicações isoladas, mas poderão responder civilmente se não adotarem mecanismos eficazes de prevenção e remoção de conteúdos ilícitos.
- Dever de remoção proativa: Conteúdos que envolvam crimes graves (como racismo, terrorismo, incitação à violência, apologia ao nazismo e atos antidemocráticos) devem ser removidos de forma proativa, sem a necessidade de decisão judicial.
- Responsabilização após notificação extrajudicial: Após serem notificadas extrajudicialmente por vítimas ou seus representantes legais, as plataformas podem ser responsabilizadas caso não removam os conteúdos considerados ofensivos, com exceção dos casos de crimes contra a honra.
- Contas falsas: Aplicam-se os mesmos critérios do ponto acima à denúncia de perfis e contas inautênticas, especialmente quando prejudiciais a terceiros.
- Conteúdo patrocinado: Se o conteúdo ilícito for impulsionado mediante pagamento, a responsabilidade da plataforma será presumida, salvo prova de diligência e resposta célere.
- Dever geral de cuidado: As empresas devem implementar medidas voltadas à prevenção de ilícitos, como o combate a discursos de ódio, racismo, desinformação e outras práticas prejudiciais.
- Presença jurídica no Brasil: Torna-se obrigatória a existência de sede e representante legal das plataformas no país, com informações de contato claras e acessíveis aos usuários.
- Transparência e dever informativo: O representante legal das empresas deve: (i) fornecer dados sobre o funcionamento da plataforma; (ii) detalhar os critérios e regras de moderação; e (iii) apresentar relatórios de transparência sobre remoções de conteúdo.
- Canais de denúncia acessíveis: Devem estar disponíveis tanto para usuários quanto para não usuários da plataforma.
- Gestão e mitigação de riscos: Os provedores de aplicação devem adotar uma postura ativa na gestão de riscos decorrentes da disseminação de conteúdos nocivos.
- Exceção – comunicações privadas: Nos casos que envolvem e-mails, mensagens via WhatsApp e reuniões virtuais, a remoção de conteúdo continua condicionada à existência de ordem judicial expressa.
A equipe de Direito Digital do Salusse, Marangoni, Parente e Jabur Advogados está à disposição para esclarecer dúvidas e prestar o suporte necessário sobre os impactos da decisão através do e-mail contenciosopi@smabr.com ou do telefone (11) 3146-2400.