Em uma decisão que poderá transformar a regulação da internet no Brasil, o Supremo Tribunal Federal formou maioria nesta quarta-feira, 11 de junho, para responsabilizar civilmente as redes sociais por conteúdos ilegais publicados por seus usuários. O placar parcial da votação é de seis votos a um, sinalizando uma ruptura significativa com a interpretação tradicional do Marco Civil da Internet e estabelecendo uma possível nova jurisprudência que impõe obrigações diretas às empresas de tecnologia.
O julgamento gira em torno da constitucionalidade do Artigo 19 da Lei nº 12.965/2014, que até hoje condicionava a responsabilidade das plataformas a uma decisão judicial específica que ordenasse a retirada do conteúdo. Na prática, esse dispositivo protegia as empresas de ações judiciais imediatas, mesmo quando conteúdos como ataques ao Estado de Direito, incitação ao ódio ou apologia à violência estivessem disponíveis publicamente.
A sessão foi suspensa após a formação da maioria e será retomada nesta quinta-feira, 12 de junho, quando a Corte fixará a tese jurídica que deverá balizar a aplicação prática da decisão nas instâncias inferiores.
O fundamento jurídico por trás da mudança
Do ponto de vista jurídico, o julgamento sinaliza uma nova compreensão constitucional da liberdade de expressão. Em lugar de protegê-la de forma absoluta, os ministros passaram a adotar uma leitura mais equilibrada, reconhecendo que o direito à livre manifestação deve coexistir com outros direitos fundamentais, como a proteção à honra, à vida, à dignidade humana e à integridade física, especialmente no contexto de crianças e adolescentes.
A maioria formada pelos ministros Gilmar Mendes, Cristiano Zanin, Luiz Fux, Dias Toffoli, Luís Roberto Barroso e Cármen Lúcia compreende que a internet não é uma “terra sem lei” e que os provedores não podem continuar se eximindo de responsabilidade sob o argumento de que são apenas veículos de transmissão de conteúdo alheio.
O ministro Gilmar Mendes considerou o Artigo 19 “ultrapassado” e afirmou que as plataformas hoje exercem curadoria ativa do conteúdo que promovem, interferindo diretamente nos algoritmos que moldam o comportamento social. “A retórica corporativa tem instrumentalizado a liberdade de expressão para preservar modelos de negócio, mantendo o status quo, no qual decisões com impactos profundos sobre a democracia são tomadas de forma opaca e sem prestação de contas”, afirmou.
Cristiano Zanin, por sua vez, ressaltou que transferir ao usuário o ônus de acionar o Judiciário para cada ofensa recebida não é compatível com a proteção efetiva dos direitos fundamentais. “Essa liberdade pode estar sendo mal utilizada para atacar o Estado de Direito, a incolumidade física das pessoas, inclusive crianças e adolescentes”, pontuou.
Os ministros Fux e Toffoli defendem a adoção de notificações extrajudiciais como meio suficiente para a retirada de conteúdo ilegal, exigindo das empresas um papel mais ativo e proativo na moderação. Já Barroso propôs uma distinção: nos crimes contra a honra, a remoção dependeria de ordem judicial; para outros ilícitos, como racismo, homofobia e incitação à violência, bastaria uma notificação extrajudicial.
Implicações jurídicas práticas e precedentes
Com a formação da maioria, o STF criará uma nova tese jurídica vinculante que poderá obrigar as plataformas a aprimorarem seus mecanismos internos de fiscalização de conteúdo. As empresas terão de adotar políticas mais claras, eficientes e transparentes para prevenir a disseminação de conteúdos ofensivos ou ilícitos, sob risco de responderem judicialmente por omissão.
Na prática, isso poderá aumentar o número de ações judiciais contra redes sociais e prestadores de serviços de tecnologia, sobretudo em casos de perfis falsos, vídeos que promovem o suicídio entre jovens ou discursos de ódio com motivação racial, religiosa ou política. Essa jurisprudência poderá servir como base para decisões futuras, inclusive no campo penal e trabalhista, ampliando a responsabilidade digital das empresas.
Além disso, abre-se caminho para o Congresso Nacional retomar com mais urgência o debate sobre o Projeto de Lei das Fake News, buscando estabelecer regras legislativas mais modernas, que reflitam o novo entendimento da Corte.
Julgamentos em curso e contexto legal
O STF está analisando dois recursos que questionam a aplicação do Artigo 19. O primeiro, relatado por Dias Toffoli, trata de um perfil falso mantido no Facebook mesmo após pedido de remoção do usuário ofendido. O segundo, sob relatoria de Luiz Fux, examina se o Google deve ser responsabilizado por conteúdo ofensivo publicado em site hospedado pela plataforma. Ambos os casos são emblemáticos por exporem o conflito entre a responsabilidade do provedor e o direito à reparação dos danos.
O único voto divergente foi proferido pelo ministro André Mendonça, que defendeu a manutenção da norma atual, argumentando que somente a Justiça poderia determinar a exclusão de conteúdo, sob pena de risco à liberdade de expressão.
Transformações para as plataformas digitais
A mudança de interpretação do STF exige que as empresas de tecnologia revisem seus modelos de moderação de conteúdo, que até agora vinham se pautando por padrões mínimos de reação. A nova exigência implica não apenas responder a ordens judiciais, mas adotar sistemas internos robustos de monitoramento, resposta rápida a denúncias e até de revisão algorítmica de conteúdos suspeitos.
É provável que as grandes plataformas adotem novas diretrizes, como a ampliação de equipes de moderação, investimentos em inteligência artificial para identificação de conteúdos nocivos e a criação de canais mais eficientes de denúncia por parte dos usuários. A responsabilização judicial direta pode ainda levar ao aumento da judicialização e à reformulação de termos de uso e políticas internas de convivência.
Perspectiva internacional e reflexos futuros
A decisão do STF também insere o Brasil em um movimento global de responsabilização das plataformas, já adotado em países como Alemanha, França e Austrália. Nestes países, legislações mais rígidas obrigam empresas como Google, Meta e X a retirarem conteúdos ofensivos em prazos curtos, sob pena de multas expressivas e sanções administrativas.
Ao se posicionar de forma assertiva, o Supremo brasileiro assume um protagonismo que vinha sendo aguardado por entidades civis e por especialistas em direito digital. Resta agora observar como o Congresso responderá a essa movimentação e se haverá espaço para uma legislação moderna, equilibrada e tecnicamente consistente sobre o tema.
#STFDecideSobreRedes #ResponsabilidadeDasPlataformas #MarcoCivilDaInternet #LiberdadeDeExpressão #RegulaçãoDasRedes #RedesSociaisNoBancoDosRéus #CrimesVirtuais #DiscursosDeÓdio #FakeNewsNaInternet #DemocraciaDigital #GilmarMendes #CristianoZanin