O Supremo Tribunal Federal (STF) tomou uma decisão inédita que altera a forma como as plataformas digitais, como Google, Meta (Facebook, Instagram, WhatsApp) e TikTok, responderão por conteúdos ilegais publicados por seus usuários no Brasil.
O que decidiu o STF?
Por 8 votos a 3, o STF entendeu que as redes sociais devem ser responsabilizadas civilmente pelas postagens ilegais feitas por seus usuários, mesmo sem uma ordem judicial prévia, desde que notificados extrajudicialmente.
Até então, o artigo 19 do Marco Civil da Internet (Lei 12.965/2014) determinava que a remoção de conteúdos só poderia ocorrer após ordem judicial específica.
O que muda com essa decisão?
Remoção imediata após notificação: As plataformas devem retirar conteúdos ilegais após receberem uma notificação extrajudicial dos envolvidos, sem precisar esperar decisão judicial.
Responsabilização direta: Caso descumpram essa obrigação, as redes podem ser responsabilizadas por danos morais e materiais causados por essas postagens.
Decisão válida até nova lei: Essa interpretação valerá até que o Congresso Nacional crie uma legislação específica sobre o tema.
Quais conteúdos devem ser removidos com urgência?
O STF listou tipos de postagens que exigem retirada rápida por sua gravidade. São elas:
Atos antidemocráticos;
Crimes de terrorismo;
Indução, instigação ou auxílio ao suicídio ou automutilação;
Incitação à discriminação por raça, cor, etnia, religião, nacionalidade, sexualidade ou identidade de gênero (incluindo homofobia e transfobia);
Crimes contra mulheres, incluindo conteúdos que promovam ódio;
Crimes sexuais contra pessoas vulneráveis, pornografia infantil e crimes contra crianças e adolescentes.
Outros pontos importantes da decisão
Replicações de conteúdo ilegal
Postagens já consideradas ilegais pela Justiça que forem replicadas em outras plataformas devem ser removidas por todos os provedores, sem necessidade de novas decisões judiciais.
Anúncios e impulsionamentos
Redes sociais serão responsabilizadas automaticamente quando o conteúdo ilegal for divulgado via anúncios pagos, impulsionamentos ou através de robôs (chatbots) para propagar ilegalidades.
Crimes contra a honra
Para remoção de conteúdos envolvendo calúnia, difamação e injúria, continuará sendo necessária uma decisão judicial.
Mensagens privadas
Serviços de e-mail e aplicativos de mensagens instantâneas, como WhatsApp e Telegram, não serão responsabilizados diretamente por conteúdos ilegais, preservando o sigilo das comunicações privadas.
Transparência e autorregulação das plataformas
As empresas deverão criar regras claras para o processo de notificação extrajudicial e publicar relatórios anuais sobre a moderação de conteúdo. Também precisam manter representantes legais no Brasil para atender às determinações da Justiça.
Validade e aplicação da decisão
A decisão entra em vigor imediatamente e não tem efeito retroativo.
Valerá até que o Congresso aprove uma lei específica que regulamente a responsabilização das plataformas digitais.
O STF ressalvou que as normas específicas da legislação eleitoral e atos do Tribunal Superior Eleitoral (TSE) continuam válidos.
Por que essa decisão é importante?
Essa mudança reflete a necessidade de as plataformas digitais atuarem de forma mais proativa para coibir a disseminação de desinformação, discurso de ódio e crimes graves pela internet, protegendo os direitos fundamentais e a democracia no Brasil.