Mato Grosso do Sul, 17 de junho de 2025
Campo Grande/MS
Fuente de datos meteorológicos: clima en Campo Grande a 30 días

STF forma maioria a favor da responsabilização das redes sociais por conteúdos e avança na revisão do Marco Civil da Internet

Supremo reabre debate sobre limites da liberdade de expressão digital e o dever das plataformas no combate à desinformação, discurso de ódio e crimes virtuais
Placar da votação é de 6 votos a 1 até o momento
Placar da votação é de 6 votos a 1 até o momento

Em uma decisão que poderá transformar a regulação da internet no Brasil, o Supremo Tribunal Federal formou maioria nesta quarta-feira, 11 de junho, para responsabilizar civilmente as redes sociais por conteúdos ilegais publicados por seus usuários. O placar parcial da votação é de seis votos a um, sinalizando uma ruptura significativa com a interpretação tradicional do Marco Civil da Internet e estabelecendo uma possível nova jurisprudência que impõe obrigações diretas às empresas de tecnologia.

O julgamento gira em torno da constitucionalidade do Artigo 19 da Lei nº 12.965/2014, que até hoje condicionava a responsabilidade das plataformas a uma decisão judicial específica que ordenasse a retirada do conteúdo. Na prática, esse dispositivo protegia as empresas de ações judiciais imediatas, mesmo quando conteúdos como ataques ao Estado de Direito, incitação ao ódio ou apologia à violência estivessem disponíveis publicamente.

A sessão foi suspensa após a formação da maioria e será retomada nesta quinta-feira, 12 de junho, quando a Corte fixará a tese jurídica que deverá balizar a aplicação prática da decisão nas instâncias inferiores.

O fundamento jurídico por trás da mudança

Do ponto de vista jurídico, o julgamento sinaliza uma nova compreensão constitucional da liberdade de expressão. Em lugar de protegê-la de forma absoluta, os ministros passaram a adotar uma leitura mais equilibrada, reconhecendo que o direito à livre manifestação deve coexistir com outros direitos fundamentais, como a proteção à honra, à vida, à dignidade humana e à integridade física, especialmente no contexto de crianças e adolescentes.

A maioria formada pelos ministros Gilmar Mendes, Cristiano Zanin, Luiz Fux, Dias Toffoli, Luís Roberto Barroso e Cármen Lúcia compreende que a internet não é uma “terra sem lei” e que os provedores não podem continuar se eximindo de responsabilidade sob o argumento de que são apenas veículos de transmissão de conteúdo alheio.

O ministro Gilmar Mendes considerou o Artigo 19 “ultrapassado” e afirmou que as plataformas hoje exercem curadoria ativa do conteúdo que promovem, interferindo diretamente nos algoritmos que moldam o comportamento social. “A retórica corporativa tem instrumentalizado a liberdade de expressão para preservar modelos de negócio, mantendo o status quo, no qual decisões com impactos profundos sobre a democracia são tomadas de forma opaca e sem prestação de contas”, afirmou.

Cristiano Zanin, por sua vez, ressaltou que transferir ao usuário o ônus de acionar o Judiciário para cada ofensa recebida não é compatível com a proteção efetiva dos direitos fundamentais. “Essa liberdade pode estar sendo mal utilizada para atacar o Estado de Direito, a incolumidade física das pessoas, inclusive crianças e adolescentes”, pontuou.

Os ministros Fux e Toffoli defendem a adoção de notificações extrajudiciais como meio suficiente para a retirada de conteúdo ilegal, exigindo das empresas um papel mais ativo e proativo na moderação. Já Barroso propôs uma distinção: nos crimes contra a honra, a remoção dependeria de ordem judicial; para outros ilícitos, como racismo, homofobia e incitação à violência, bastaria uma notificação extrajudicial.

Implicações jurídicas práticas e precedentes

Com a formação da maioria, o STF criará uma nova tese jurídica vinculante que poderá obrigar as plataformas a aprimorarem seus mecanismos internos de fiscalização de conteúdo. As empresas terão de adotar políticas mais claras, eficientes e transparentes para prevenir a disseminação de conteúdos ofensivos ou ilícitos, sob risco de responderem judicialmente por omissão.

Na prática, isso poderá aumentar o número de ações judiciais contra redes sociais e prestadores de serviços de tecnologia, sobretudo em casos de perfis falsos, vídeos que promovem o suicídio entre jovens ou discursos de ódio com motivação racial, religiosa ou política. Essa jurisprudência poderá servir como base para decisões futuras, inclusive no campo penal e trabalhista, ampliando a responsabilidade digital das empresas.

Além disso, abre-se caminho para o Congresso Nacional retomar com mais urgência o debate sobre o Projeto de Lei das Fake News, buscando estabelecer regras legislativas mais modernas, que reflitam o novo entendimento da Corte.

Julgamentos em curso e contexto legal

O STF está analisando dois recursos que questionam a aplicação do Artigo 19. O primeiro, relatado por Dias Toffoli, trata de um perfil falso mantido no Facebook mesmo após pedido de remoção do usuário ofendido. O segundo, sob relatoria de Luiz Fux, examina se o Google deve ser responsabilizado por conteúdo ofensivo publicado em site hospedado pela plataforma. Ambos os casos são emblemáticos por exporem o conflito entre a responsabilidade do provedor e o direito à reparação dos danos.

O único voto divergente foi proferido pelo ministro André Mendonça, que defendeu a manutenção da norma atual, argumentando que somente a Justiça poderia determinar a exclusão de conteúdo, sob pena de risco à liberdade de expressão.

Transformações para as plataformas digitais

A mudança de interpretação do STF exige que as empresas de tecnologia revisem seus modelos de moderação de conteúdo, que até agora vinham se pautando por padrões mínimos de reação. A nova exigência implica não apenas responder a ordens judiciais, mas adotar sistemas internos robustos de monitoramento, resposta rápida a denúncias e até de revisão algorítmica de conteúdos suspeitos.

É provável que as grandes plataformas adotem novas diretrizes, como a ampliação de equipes de moderação, investimentos em inteligência artificial para identificação de conteúdos nocivos e a criação de canais mais eficientes de denúncia por parte dos usuários. A responsabilização judicial direta pode ainda levar ao aumento da judicialização e à reformulação de termos de uso e políticas internas de convivência.

Perspectiva internacional e reflexos futuros

A decisão do STF também insere o Brasil em um movimento global de responsabilização das plataformas, já adotado em países como Alemanha, França e Austrália. Nestes países, legislações mais rígidas obrigam empresas como Google, Meta e X a retirarem conteúdos ofensivos em prazos curtos, sob pena de multas expressivas e sanções administrativas.

Ao se posicionar de forma assertiva, o Supremo brasileiro assume um protagonismo que vinha sendo aguardado por entidades civis e por especialistas em direito digital. Resta agora observar como o Congresso responderá a essa movimentação e se haverá espaço para uma legislação moderna, equilibrada e tecnicamente consistente sobre o tema.

#STFDecideSobreRedes #ResponsabilidadeDasPlataformas #MarcoCivilDaInternet #LiberdadeDeExpressão #RegulaçãoDasRedes #RedesSociaisNoBancoDosRéus #CrimesVirtuais #DiscursosDeÓdio #FakeNewsNaInternet #DemocraciaDigital #GilmarMendes #CristianoZanin

Suas preferências de cookies

Usamos cookies para otimizar nosso site e coletar estatísticas de uso.