Com maioria formada, ministros discutem como as plataformas deverão agir para coibir e remover conteúdos criminosos
ALT NOTÍCIAS
O Supremo Tribunal Federal (STF) está prestes a estabelecer um marco inédito na regulação da internet no Brasil. Na próxima quinta-feira (25), os ministros retomam o julgamento que pode alterar profundamente a forma como redes sociais lidam com conteúdos criminosos publicados por seus usuários.
Até o momento, o placar está em 7 votos a 1 a favor de uma maior responsabilização das plataformas digitais. Apesar da maioria já formada, o STF ainda precisa definir, com clareza, as regras que vão orientar essa nova forma de responsabilização.
Atualmente, as plataformas digitais só podem ser responsabilizadas se deixarem de remover conteúdos ilícitos após ordem judicial. Ou seja, somente quando há uma decisão da Justiça determinando a retirada, e a empresa se omite, é que pode haver punição. O julgamento em curso, no entanto, aponta para uma mudança de paradigma: as empresas poderão ser responsabilizadas já a partir de uma notificação extrajudicial ou, em alguns casos, por não atuarem de forma preventiva.
O que está em jogo: o futuro do Artigo 19 do Marco Civil da Internet
No centro da discussão está o Artigo 19 do Marco Civil da Internet, legislação de 2014 que funciona como uma espécie de “Constituição da internet brasileira”. Esse artigo define que as plataformas só têm obrigação de remover conteúdos ilegais após decisão judicial. Agora, o STF debate se esse modelo ainda é adequado frente aos desafios contemporâneos, como a proliferação de discursos de ódio, desinformação e crimes virtuais.
Como votaram os ministros até agora:
- Dias Toffoli: Defendeu a inconstitucionalidade do artigo, propondo que redes sociais tenham a obrigação de remover conteúdos ofensivos ou ilícitos imediatamente após serem notificadas, inclusive de forma extrajudicial, em casos como racismo.
- Luiz Fux: Acompanhou o entendimento de Toffoli, reforçando a necessidade de remoção rápida após notificação extrajudicial, principalmente em casos de discurso de ódio, racismo, pedofilia e incitação à violência.
- Luís Roberto Barroso: Presidente da Corte, Barroso entende que, para crimes contra a honra (injúria, calúnia e difamação), a retirada deve ocorrer apenas com ordem judicial. Já para casos mais graves, como pornografia infantil e terrorismo, a plataforma tem o dever de agir preventivamente.
- Flávio Dino: Propôs aplicar o Artigo 21 do Marco Civil, que prevê a responsabilização das plataformas caso não removam o conteúdo após notificação extrajudicial. Dino também defende que empresas devem impedir a criação de perfis falsos e controlar perfis de robôs e anúncios pagos.
- Cristiano Zanin: Considera o Artigo 19 “parcialmente inconstitucional” e defende que, em casos de conteúdos manifestamente ilícitos, as plataformas sejam obrigadas a remover o material de forma imediata, mesmo sem decisão judicial.
- Gilmar Mendes: Reconheceu que o modelo atual está ultrapassado e sugeriu quatro formas de responsabilização, considerando fatores como o alcance da publicação e a interferência da plataforma no conteúdo.
- Alexandre de Moraes: Defendeu equiparar as redes sociais a veículos de comunicação tradicionais, sujeitando-as às mesmas obrigações legais. Para Moraes, a liberdade de expressão não pode servir de escudo para abusos e crimes.
- André Mendonça: Único voto contrário até agora, Mendonça entende que o Artigo 19 é constitucional e que só uma decisão judicial pode determinar a remoção de conteúdo. Ele também alertou contra o risco de as redes sociais removerem conteúdos apenas por opinião divergente.
O que vem pela frente: regras de aplicação e votos restantes
Ainda faltam os votos de três ministros: Edson Fachin, Nunes Marques e Cármen Lúcia. Além disso, o STF terá que definir um ponto central: como será a aplicação prática dessa responsabilização.
Os ministros precisam chegar a um consenso sobre quando as plataformas poderão ser punidas: será sempre após notificação extrajudicial? Haverá exceções? Qual será o papel das autoridades públicas, como a Justiça e a futura Autoridade Nacional de Proteção de Dados, na fiscalização?
Impacto direto: o que muda para usuários e empresas?
Se confirmada a mudança, as redes sociais terão de criar estruturas mais ágeis para lidar com denúncias de conteúdo criminoso, com canais de comunicação diretos com usuários e autoridades. Também poderão ser responsabilizadas civilmente por danos causados por publicações ofensivas ou ilegais, mesmo antes de uma decisão judicial.
Gigantes da tecnologia, como Google e Meta, já demonstraram preocupação com a mudança. Segundo o Google, a responsabilização direta pode não ser eficaz para reduzir a circulação de conteúdos nocivos e pode gerar censura excessiva, com remoções preventivas para evitar processos.
De um lado, o STF avança para proteger vítimas de crimes virtuais e combater a desinformação. Do outro, o debate sobre os limites da liberdade de expressão e os riscos de excessiva interferência na internet continua.
O julgamento promete ser um divisor de águas na história da regulação digital no Brasil.





