STF debate limites da liberdade de expressão nas redes e pode ampliar responsabilidade de plataformas

Julgamento sobre o artigo 19 do Marco Civil da Internet reacende discussões sobre censura, discurso de ódio e dever legal de Facebook, Google e outras gigantes digitais no Brasil

Publiciado em 09/07/2025 as 08:36

A liberdade de expressão é um direito assegurado pela Constituição, mas quais são seus limites no ambiente virtual? Esse é o ponto central do julgamento em andamento no Supremo Tribunal Federal (STF), que pode alterar de forma significativa o papel de plataformas digitais como Facebook, Instagram e YouTube na remoção de conteúdos ilegais. O STF avalia a constitucionalidade do artigo 19 do Marco Civil da Internet, que determina que essas empresas só podem ser responsabilizadas por danos causados por publicações de terceiros se desobedecerem a uma ordem judicial para retirada do conteúdo.

O caso chegou à mais alta Corte do país por meio de dois processos analisados conjuntamente. O primeiro trata de um perfil falso criado no Facebook contendo ofensas, e o segundo envolve uma decisão que obrigou o Google a excluir uma comunidade ofensiva no extinto Orkut. A discussão gira em torno da interpretação do Artigo 19, que está em vigor desde 2014 e estabelece que redes sociais e outras plataformas digitais não são responsáveis por danos causados por usuários, a menos que descumpram ordem judicial de remoção.

As opiniões dos ministros do STF são divergentes. Os relatores, ministros Dias Toffoli e Luiz Fux, acreditam que a exigência de decisão judicial para retirada de conteúdo ofensivo é inconstitucional. Por outro lado, o presidente do STF, ministro Luiz Roberto Barroso, defende que a regra só deveria ser considerada inconstitucional em parte, mantendo a obrigatoriedade da ordem judicial em casos específicos, como crimes contra a honra, para preservar a liberdade de expressão. Já o ministro André Mendonça entende que o artigo do Marco Civil é plenamente constitucional.

O ministro Flávio Dino, em seu voto, propôs ampliar a responsabilidade das plataformas digitais. Segundo ele, as empresas devem ser punidas se não excluírem conteúdos após notificação feita por um usuário, com exceção de postagens que envolvam crimes contra a honra, nessas, a retirada só poderia ocorrer mediante decisão judicial. Dino também sugeriu uma lista de conteúdos que deveriam ser monitorados ativamente pelas plataformas, incluindo crimes contra crianças e adolescentes, incentivo ao suicídio, terrorismo e apologia a crimes contra o Estado Democrático de Direito.

Entre proteger e censurar: o dilema da liberdade de expressão

Encontrar o ponto ideal entre garantir a liberdade de expressão e proteger os direitos das minorias é um dos maiores desafios desse debate. O professor da Universidade Tiradentes (Unit) e especialista em Direito Eletrônico, Nelson Teodomiro, destaca que a discussão é complexa. “Se exagerarmos na regulação das redes sociais, corremos o risco de comprometer a liberdade de expressão, o que pode afetar diretamente a democracia, uma vez que as redes são o principal meio de manifestação política da população”, pontua.

No entanto, uma regulação fraca ou inexistente pode deixar desprotegidas pessoas e grupos que precisam de atenção especial do Estado. “Essa dificuldade de definir limites entre liberdade e regulação já é um tema antigo. Quando o Judiciário precisa tomar essa decisão, o desafio é ainda maior do que se fosse feito pelo Parlamento, que tem caráter representativo”, avalia Teodomiro.

Uma das críticas mais frequentes ao modelo atual é que as plataformas lucram com a propagação de conteúdos ofensivos. O professor lembra que essas redes operam com conteúdos pagos, que geram receita. Para ele, quando uma publicação é impulsionada financeiramente, a empresa já tem conhecimento do que está sendo divulgado, e por isso não deveria ser necessária uma ordem judicial para agir.

“Se alguém investe dinheiro para divulgar algo, a plataforma tem a obrigação de verificar esse conteúdo. Caso contrário, podem ser veiculadas mensagens antissemitas, racistas ou contra minorias, o que é muito preocupante. A discussão no STF busca impedir que essas empresas se beneficiem financeiramente da propagação do discurso de ódio. Como apontam os ministros, liberdade de expressão precisa caminhar junto com responsabilidade”, reforça o professor.

Moderação automática e riscos de censura

Estabelecer critérios para responsabilizar as plataformas sem incorrer em censura excessiva é outro ponto delicado. O uso de inteligência artificial e sistemas automatizados para detectar conteúdos nocivos parece ser uma solução eficiente, mas envolve riscos. “O problema é que algoritmos podem interpretar erroneamente conteúdos educativos ou discussões sérias sobre temas sensíveis, como racismo ou pedofilia”, alerta Teodomiro.

A automação pode resultar em censura prévia, o que, segundo o especialista, ameaça a democracia. “Sem liberdade de expressão, não há democracia. É por meio dela que as pessoas compartilham suas ideias, opiniões políticas e impulsionam transformações sociais”, reforça. Considerando a imensidão de conteúdo nas redes, um filtro 100% eficaz não é viável. Por isso, Teodomiro defende que a melhor abordagem é permitir que o conteúdo seja publicado e, se necessário, removido posteriormente com base em avaliação criteriosa.

Marco legal e os direitos de quem é ofendido

O Marco Civil da Internet segue sendo o principal instrumento jurídico para normatizar a atuação online no Brasil, prevendo punições para plataformas omissas diante de violações de direitos. Outros projetos legislativos, como o PL das Fake News, estão em tramitação no Congresso Nacional, motivados pelo crescimento das notícias falsas, especialmente durante a pandemia. Teodomiro lembra que diferenciar entre fake news e manifestação legítima de opinião continua sendo um dos grandes desafios jurídicos.

“Nos Estados Unidos, a ênfase está na liberdade de expressão, com mais responsabilidade para os usuários e menor exigência para as plataformas. Já a China adota um modelo oposto, com forte controle estatal. O Brasil busca um modelo intermediário, que promova o debate democrático e, ao mesmo tempo, proteja grupos vulneráveis”, analisa o professor.

Para quem se sentir atingido por alguma publicação nas redes sociais, o professor recomenda inicialmente reportar o conteúdo à própria plataforma e registrar provas, como capturas de tela. “O passo seguinte é procurar um advogado que possa orientar a vítima sobre medidas legais, como uma queixa-crime ou pedido de indenização. Se a publicação não for retirada mesmo após denúncia, será necessário acionar o Poder Judiciário com o devido suporte jurídico”, orienta.

Enquanto isso, a decisão final do STF tende a servir como referência para os rumos da regulação digital no país, impactando diretamente o funcionamento das redes sociais e a forma como liberdade de expressão, responsabilidade e direitos são tratados na internet.

Por: Laís Marques

Fonte: Asscom Unit

Foto: Nelson Teodomiro- Professor da Universidade Tiradentes (Unit) e especialista em Direito Eletrônico