O Supremo Tribunal Federal (STF) concluiu o julgamento que endurece a regulação das plataformas digitais no Brasil, alterando significativamente o que previa o Marco Civil da Internet. A Corte decidiu que as empresas podem ser responsabilizadas por conteúdos ilegais postados por terceiros, mesmo sem decisão judicial prévia, dependendo da gravidade do caso. Veja os quatro principais pontos definidos:
1) Obrigação de apagar conteúdos criminosos após notificação
As plataformas agora têm o dever de remover conteúdos criminosos assim que forem notificadas. Isso inclui também perfis falsos. Contudo, o STF fez uma distinção: crimes contra a honra, como injúria e difamação, não obrigam remoção imediata. Nesses casos, só haverá punição se a empresa descumprir decisão judicial ou se o conteúdo violar as próprias regras da plataforma.
2) ‘Dever de cuidado’ para coibir conteúdos mais graves
Foi incorporado o princípio do “dever de cuidado”, inspirado na legislação da União Europeia. A decisão determina que as plataformas atuem de forma ativa e sistemática para impedir a propagação de conteúdos classificados como gravíssimos, como:
Conteúdos antidemocráticos
Terrorismo ou incitação ao terrorismo
Incitação ao suicídio e automutilação
Discriminação racial, religiosa, de gênero ou sexualidade
Crimes sexuais e pornografia infantil
Tráfico de pessoas
Se ficar comprovada falha sistêmica na prevenção ou remoção desses conteúdos, a empresa poderá ser responsabilizada judicialmente. Situações pontuais, no entanto, não configuram infração.
3) Fiscalização e punição das plataformas
O STF não definiu uma autoridade específica para fiscalizar ou aplicar sanções. Durante o julgamento, sugeriu-se que órgãos como o Ministério Público, o Conselho Nacional de Justiça (CNJ) ou a Autoridade Nacional de Proteção de Dados (ANPD) poderiam exercer esse papel. Na prática, o Ministério Público pode ser o principal ator ao ingressar com ações em casos de descumprimento sistêmico.
4) Canais para contestar remoções
As empresas deverão manter canais específicos e acessíveis para que usuários contestem remoções de conteúdo, garantindo o chamado “devido processo”. Também deverão publicar relatórios anuais de transparência e manter sede com representante legal no Brasil. Essas medidas visam aumentar a responsabilidade e a acessibilidade das plataformas.
O que dizem as empresas?
Empresas como Google e Meta manifestaram preocupação. A Câmara Brasileira da Economia Digital, que representa big techs, criticou o julgamento, alegando que a decisão rompe com o equilíbrio do Marco Civil e pode gerar insegurança jurídica e exclusão indevida de conteúdos legítimos. O Google defende que a moderação de conteúdo deve ter respaldo judicial, enquanto a Meta afirmou que nenhum país democrático adota regime semelhante ao aprovado no Brasil.
Impacto imediato
A decisão já tem validade e se aplica até que o Congresso Nacional aprove nova legislação. O STF também apelou para que o Legislativo avance na regulamentação do tema. A expectativa de especialistas é que, diante do novo cenário jurídico e da pressão sobre as big techs, o Congresso seja forçado a deliberar sobre o tema com mais urgência.