STF resolveu apagar fogo com gasolina em ação para regular as redes sociais
Coluna de Carlos Affonso Souza no Uol Tilt.
publicado em
13 de dezembro de 2024
categorias
tema
O STF decidiu regular redes sociais frente ao impasse no Congresso, julgando ações sobre a responsabilidade de provedores na internet
O Supremo Tribunal Federal resolveu apagar o fogo com gasolina. Como o Congresso Nacional falhou em chegar a qualquer consenso sobre a regulação das redes sociais e o tema da desinformação, o STF tomou para si a oportunidade de resolver a questão através do julgamento de duas ações que tratam da responsabilidade civil de provedores na internet.
Uma das ações analisa a criação de uma comunidade no Orkut para falar mal de uma professora e a outra nasceu a partir da criação de um perfil falso no Facebook.
Essa última ação questiona a constitucionalidade do artigo 19 do Marco Civil da Internet, que dispõe que as plataformas apenas serão responsabilizadas pelas postagens de seus usuários, em regra, se não cumprirem com uma decisão judicial que ordena a remoção de conteúdos.
A regra do artigo 19 possui exceções, como no caso de conteúdos envolvendo cenas de sexo e nudez não consentidas, que devem ser retiradas assim que notificadas pela vítima, passando o provedor a responder caso não o faça.
Não há o que se discutir sobre liberdade de expressão nesses casos e é por isso que o Marco Civil da Internet, em seu artigo 21, criou esse modelo de responsabilidade diretamente ligado ao não atendimento de notificação.
Notificou tem que tirar
O primeiro voto proferido no plenário da Corte ao julgar as duas ações, de autoria do ministro Dias Toffoli, faz dois movimentos preocupantes.
Primeiro, ele puxa para o regime de responsabilidade por não cumprimento de simples notificação todos os conteúdos que dizem respeito à proteção da honra, da imagem e da privacidade.
Não é difícil imaginar como políticos, autoridades e demais pessoas envolvidas com qualquer fato que lhe seja desabonador vão usar e abusar desse expediente caso o voto de Toffoli prevaleça no plenário.
Por décadas surgiram propostas nesse sentido no Congresso Nacional, em especial na legislação eleitoral, sendo sempre barradas por se compreender o quanto a ferramenta de responsabilidade por não cumprimento de notificação, quando ligada à menção à honra e à imagem, impacta a liberdade de expressão.
Esse mecanismo transforma todo e qualquer brasileiro em vítima e em juiz ao mesmo tempo, permitindo que se envie denúncia nas redes sociais sobre qualquer conteúdo que lhe desagrade e aponte violação à honra e à imagem.
As plataformas, para não ser responsabilizadas, tenderão a remover a postagem. Aqui jaz o direito de crítica.
Plataformas passarão a responder porque o conteúdo existe
O segundo movimento feito pelo voto do Toffoli é a criação de um regime de responsabilidade simplesmente porque o conteúdo foi postado nas redes sociais. Não importa se a plataforma foi ou não notificada, ela responde apenas porque a publicação existe.
Para esses casos, nos quais se aplicaria a chamada responsabilidade objetiva, Toffoli reservou uma lista de temas e de situações.
Eles são, dessa forma, temas “proibidos”, que geram a responsabilidade imediata dos provedores.
O primeiro item da lista da responsabilidade imediata é uma pá de cal no modelo de negócio das redes sociais e de qualquer empresa que usa algoritmos para recomendar conteúdo publicado por seus usuários.
Toffoli aponta que todo e qualquer conteúdo recomendado, moderado ou impulsionado (de maneira paga ou não) gera responsabilidade imediata da plataforma.
Perfis falsos e violações a direito de autor também entraram na lista da responsabilidade objetiva. Nesses casos, não é preciso notificar, basta a publicação existir que a empresa responde.
Não restam dúvidas de que as empresas precisam fazer mais sobre a solução de problemas relacionados com a criação de perfis falsos. Ao mesmo tempo, a solução não é simples.
A inclusão de direitos autorais na lista chama atenção.
Provedores de internet agora vão precisar magicamente saber se a música, filme ou texto publicado foi ou não autorizada por todos os autores ou titulares dos direitos.
Essa checagem já acontece de forma automatizada faz tempo para as grandes plataformas, mas a sua introdução como responsabilidade objetiva abre o caminho para muitos processos sobre situações que as empresas de internet sequer poderiam imaginar se o uso era devido ou não.
A lista dos temas proibidos avança para casos e temas previstos em lei como ilícitos, tais como crimes contra o Estado Democrático de Direito, terrorismo, incitação ao suicídio, racismo, violência contra mulheres, crianças e adolescentes, além de infrações sanitárias e tráfico de pessoas.
Quase no final aparece a previsão de que as plataformas vão responder imediatamente pela “divulgação de fatos notoriamente inverídicos ou gravemente descontextualizados que levem à incitação, à violência física, à ameaça contra a vida ou a atos de violência contra grupos ou membros de grupos socialmente vulneráveis”.
Diferente dos demais itens, esse não se encontra respaldado por nenhuma lei diretamente.
A publicação de fatos notoriamente inverídicos ou gravemente descontextualizados que possam causar danos ou que prejudiquem o equilíbrio do processo eleitoral fecha a lista de Toffoli.
A lista das situações e conteúdos proibidos tem um pouco de tudo e certamente vai gerar discussões sobre a decisão de se responsabilizar empresas imediatamente pelo conteúdo de usuário que possa ser reconhecido como racista ou desinformação que leve à incitação de violência. A disputa aqui vai incidir sobre o grau de objetividade de cada ilícito apontado pelo ministro.
O que não vai faltar é processo
De modo geral, existe até um certo consenso de que as regras sobre responsabilidade e moderação de conteúdo no Brasil precisavam passar por uma revisão.
Acontece que, ao tomar a tarefa para si, o STF, caso prevaleça a direção do voto de Toffoli, pode transformar um regime de responsabilidade que é simples (embora precise de ajustes) no mais complexo sistema de responsabilização de agentes na internet jamais criado por qualquer país.
A nova diretiva sobre responsabilidade de produtos na União Europeia ou a Lei de Intermediários na Internet da Índia não chegariam aos pés do grau de complexidade que passaria a vigorar no Brasil.
Em nome de impedir uma judicialização de pessoas que se sentem afetadas por conteúdos postados online —e que precisam mesmo passar pelo crivo do Judiciário como dano à honra e à imagem, além de excessos sobre liberdade de expressão— a decisão do STF abriria caminho para toda sorte de litigância predatória contra empresas de tecnologia.
A prevalecer o voto de Toffoli as empresas respondem se deixarem no ar (e o Judiciário entender que deveriam ter tirado) e respondem se tirar (e o Judiciário entender que a moderação foi indevida).
Era justamente esse o efeito que o artigo 19 do Marco Civil evitava, servindo como uma rede de proteção à liberdade de expressão e reconhecendo que cabe ao Judiciário dizer o que é lícito e ilícito nos casos concretos.
Faltou à lei criar estímulos para que as plataformas moderassem mais e melhor, mas a solução que surge agora no STF simplesmente passa a bola para os provedores e deixa que eles sejam responsabilizados tanto pela moderação como pela falta dela.
A prevalecer essa linha de entendimento no STF, melhor do que criar uma empresa de sucesso na Internet será processar uma empresa de sucesso na Internet.
autor
{{ pessoas.pessoaActive.title }}
conteúdos relacionados
publicações
A geração ansiosa: como a internet afeta a saúde mental de crianças e adolescentes
Por Sérgio Branco e Celina Bottino Saiba Mais
publicações
Moderação de conteúdo e responsabilidade civil em plataformas digitais: um olhar atual
Por Chiara de Teffé Saiba Mais