Data...

STF muda entendimento e amplia responsabilidade das big techs por conteúdos ilícitos publicados por terceiros

STF decide que big techs devem remover conteúdos graves após notificação sem ordem judicial e podem responder por falhas sistêmicas ou impulsionamento

Em julgamento histórico, o Supremo Tribunal Federal (STF) fixou, por 8 votos a 3, uma nova tese que amplia a responsabilidade civil das big techs por conteúdos publicados por terceiros. A Corte decidiu que não será mais necessário obter ordem judicial para que as plataformas removam determinados tipos de publicações consideradas graves ou criminosas. A decisão altera de forma significativa o entendimento que vinha sendo aplicado desde a promulgação do Marco Civil da Internet, em 2014.

Na prática, empresas como Google, Meta, X (antigo Twitter), TikTok e outras plataformas digitais passam a ter dever proativo de moderação, sendo responsabilizadas caso não retirem do ar conteúdos ilícitos após notificação. A decisão marca um novo capítulo na regulação da internet brasileira, onde a liberdade de expressão continua sendo princípio fundamental — mas agora dividindo espaço com a proteção da honra, da segurança e da dignidade das pessoas.

O que exatamente foi decidido pelo STF

A mudança parte da reinterpretação do artigo 19 do Marco Civil, que até então condicionava a responsabilização das plataformas à existência de uma ordem judicial. Com a nova tese, o STF entendeu que esse modelo se tornou insuficiente diante da velocidade com que conteúdos nocivos se espalham nas redes.

A Corte estabeleceu que:

  • Plataformas devem remover conteúdos manifestamente ilícitos (como apologia ao nazismo, incentivo ao suicídio, pornografia infantil, discurso de ódio ou racismo) após simples notificação do usuário, mesmo sem decisão judicial.

  • As empresas podem ser responsabilizadas por falhas sistêmicas, como a ausência de mecanismos adequados de moderação, uso de bots, algoritmos que impulsionem conteúdos nocivos ou falhas em prevenir reincidências.

  • Nos crimes contra a honra (como calúnia, difamação e injúria), ainda será exigida a ordem judicial para remoção, mantendo-se o equilíbrio com a liberdade de expressão.

O julgamento e os votos dos ministros

A tese foi fixada durante o julgamento de dois casos emblemáticos envolvendo o Google Brasil e o Facebook. O relator, ministro Dias Toffoli, foi acompanhado por Luiz Fux, Alexandre de Moraes, Flávio Dino, Cristiano Zanin, Gilmar Mendes, Cármen Lúcia e Luís Roberto Barroso.

Esses ministros sustentaram que, diante da nova realidade digital, é incompatível com a Constituição manter as plataformas isentas de responsabilidade até que a Justiça decida caso a caso. Para eles, há situações em que o risco à coletividade e aos direitos fundamentais é tão evidente que a omissão das plataformas se torna inaceitável.

Votaram contra a mudança os ministros André Mendonça, Edson Fachin e Nunes Marques, que defenderam a constitucionalidade plena do artigo 19. Para eles, o novo entendimento pode gerar censura privada e insegurança jurídica, já que os critérios de ilicitude nem sempre são objetivos.

Impacto direto para usuários e empresas

A decisão já está em vigor e alcança todos os casos futuros, mas não retroage para processos já julgados. Com isso, as big techs terão que rever suas políticas de moderação, ampliar seus canais de denúncia e agir de forma mais célere diante de notificações válidas.

Para os usuários, significa maior poder de atuação contra abusos. Agora, em situações graves, basta formalizar uma denúncia clara, documentada e específica. Caso a empresa ignore ou negligencie, poderá ser processada por omissão, inclusive por danos morais e prejuízos coletivos.

Já para as empresas, o desafio será adequar a tecnologia e os fluxos internos às exigências legais brasileiras. Isso inclui transparência nos algoritmos, fortalecimento das equipes de moderação e, principalmente, a criação de ferramentas capazes de filtrar e conter a propagação de conteúdos nocivos — sem sufocar o debate público legítimo.

Um modelo que dialoga com o mundo

A decisão do STF aproxima o Brasil de modelos de responsabilidade adotados por países europeus, como o Digital Services Act (DSA) da União Europeia, que impõe obrigações semelhantes a plataformas digitais. A Corte brasileira, no entanto, optou por modular a decisão e deixar claro que o Congresso Nacional ainda pode — e deve — legislar sobre o tema, com regras mais claras e atualizadas.

O presidente da Corte, ministro Barroso, destacou que o papel do STF é interpretar a Constituição à luz dos novos desafios sociais. “A liberdade de expressão segue sendo um direito fundamental, mas não pode servir de escudo para o cometimento de crimes ou para a destruição da democracia”, disse ele em plenário.

Reflexões e responsabilidades compartilhadas

A decisão do Supremo é um marco. Não apenas para a legislação digital, mas para o modo como a sociedade brasileira compreende o papel das plataformas tecnológicas. A partir de agora, não basta dizer que o conteúdo é de terceiros. A omissão, diante do ilícito evidente, passa a ter consequências.

E isso exige maturidade de todos os lados: dos usuários, que devem denunciar com responsabilidade; das empresas, que devem atuar com diligência e transparência; e do Estado, que precisa construir um ambiente regulatório claro, democrático e equilibrado.

A internet continua sendo uma terra de ideias, trocas e debates. Mas agora, com um novo aviso na entrada: quem lucra com o alcance, também responde pelo impacto.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Envie sua notícia

Participe do Ocorre enviando notícias, fotos ou vídeos de fatos relevantes.

Preencha o formulário abaixo e, após verificação, seu conteúdo poderá ser publicado.