STF altera regras de responsabilização de plataformas digitais

Publicado por

Área relacionada: Propriedade Intelectual

27 de junho 2025

Na última quinta-feira (26/06/2025), o Supremo Tribunal Federal (STF) concluiu o julgamento sobre a constitucionalidade do artigo 19 do Marco Civil da Internet (Lei nº 12.965/2014). Por maioria de 8 votos a 3, a Corte declarou parcialmente inconstitucional o dispositivo, alterando significativamente o regime de responsabilidade civil dos provedores de aplicação por conteúdos publicados por terceiros.

O entendimento anterior condicionava a responsabilização das plataformas à existência de ordem judicial prévia para a remoção do conteúdo ilícito. Com a nova interpretação, essa exigência se mantém apenas para os casos que envolvam crimes contra a honra. Em todas as demais hipóteses, a responsabilização poderá ocorrer independentemente de ordem judicial, sempre que houver omissão ou falha sistêmica na moderação.

Confira, a seguir, os principais efeitos práticos da tese de repercussão geral:

  • Responsabilidade por falha sistêmica: As plataformas não serão responsabilizadas por publicações isoladas, mas poderão responder civilmente se não adotarem mecanismos eficazes de prevenção e remoção de conteúdos ilícitos.
  • Dever de remoção proativa: Conteúdos que envolvam crimes graves (como racismo, terrorismo, incitação à violência, apologia ao nazismo e atos antidemocráticos) devem ser removidos de forma proativa, sem a necessidade de decisão judicial.
  • Responsabilização após notificação extrajudicial: Após serem notificadas extrajudicialmente por vítimas ou seus representantes legais, as plataformas podem ser responsabilizadas caso não removam os conteúdos considerados ofensivos, com exceção dos casos de crimes contra a honra.
  • Contas falsas: Aplicam-se os mesmos critérios do ponto acima à denúncia de perfis e contas inautênticas, especialmente quando prejudiciais a terceiros.
  • Conteúdo patrocinado: Se o conteúdo ilícito for impulsionado mediante pagamento, a responsabilidade da plataforma será presumida, salvo prova de diligência e resposta célere.
  • Dever geral de cuidado: As empresas devem implementar medidas voltadas à prevenção de ilícitos, como o combate a discursos de ódio, racismo, desinformação e outras práticas prejudiciais.
  • Presença jurídica no Brasil: Torna-se obrigatória a existência de sede e representante legal das plataformas no país, com informações de contato claras e acessíveis aos usuários.
  • Transparência e dever informativo: O representante legal das empresas deve: (i) fornecer dados sobre o funcionamento da plataforma; (ii) detalhar os critérios e regras de moderação; e (iii) apresentar relatórios de transparência sobre remoções de conteúdo.
  • Canais de denúncia acessíveis: Devem estar disponíveis tanto para usuários quanto para não usuários da plataforma.
  • Gestão e mitigação de riscos: Os provedores de aplicação devem adotar uma postura ativa na gestão de riscos decorrentes da disseminação de conteúdos nocivos.
  • Exceção – comunicações privadas: Nos casos que envolvem e-mails, mensagens via WhatsApp e reuniões virtuais, a remoção de conteúdo continua condicionada à existência de ordem judicial expressa.

A equipe de Direito Digital do Salusse, Marangoni, Parente e Jabur Advogados está à disposição para esclarecer dúvidas e prestar o suporte necessário sobre os impactos da decisão através do e-mail contenciosopi@smabr.com ou do telefone (11) 3146-2400.

Fale conosco

Caso haja interesse, nossa equipe coloca-se à disposição para tratar mais pormenorizadamente do assunto.

    Newsletter

    Cadastre-se e receba nossas novidades.

      Acesse nossa Política de Privacidade para entender como tratamos seus dados pessoais.

      Nosso site faz uso de cookies para gerenciar análises estatísticas. Não coletamos dados pessoais. Para maiores informações acesse nossa Política de Privacidade.