Moderação de conteúdo e responsabilidade civil em plataformas digitais: um olhar atual
Por Chiara de Teffé
04/07/2024categorias
tema
A moderação de conteúdo e a responsabilidade civil das plataformas digitais são temas centrais no debate global sobre a regulação da Internet. À medida que o uso da rede se expande, permitindo que seus usuários publiquem conteúdos e se comuniquem a todo momento e por meio de variados recursos, surgem questões como: quem é responsável quando esses conteúdos causam danos a terceiros? Como tal responsabilidade deve ser aplicada? Como desenvolver um processo de moderação mais responsivo, transparente e participativo?
Historicamente, as plataformas digitais eram vistas como intermediárias neutras, com pouca ou nenhuma gerência sobre o conteúdo gerado por seus usuários. No entanto, com o aumento da disseminação de conteúdos ilícitos e nocivos nas redes, como discursos de ódio, violência de gênero e desinformação, vem ocorrendo uma mudança na percepção do papel e na regulação dessas plataformas. Nos Estados Unidos, a seção 230 do Communications Decency Act de 1996 impede que provedores sejam responsabilizados pelos conteúdos publicados por terceiros em seus ambientes e concede poder às plataformas para retirarem conteúdos que julgarem ofensivos. Recentemente, casos como os julgados pela Suprema Corte dos EUA testaram os limites dessa imunidade, resultando na reafirmação da não responsabilidade das plataformas na ausência de um nexo causal direto entre as condutas delas e os danos alegados.
A Europa adotou uma abordagem mais regulatória com a entrada em vigor da Lei de Serviços Digitais (DSA). Desde 17 de fevereiro de 2024, as regras do DSA são aplicáveis a todas as plataformas. A norma estabelece um quadro de transparência e responsabilização para as plataformas em toda a União Europeia, exigindo que elas atuem no combate a conteúdos ilegais e protejam direitos fundamentais. Prevê também a possibilidade de os sujeitos contestarem decisões relativas à moderação e de serem mais bem informados sobre condições de uso e algoritmos utilizados para recomendar conteúdos ou produtos aos usuários. Há obrigações relativas à proteção de crianças e adolescentes, como o estabelecimento de instrumentos de verificação etária e de controle parental, assim como destinados a auxiliar os menores a sinalizarem abusos e obterem apoio.
O DSA representa um avanço significativo na regulação de plataformas. Contudo, ainda desconhecemos seus efeitos a longo prazo e estamos ainda compreendendo seu impacto e aplicação. No Brasil, a discussão judicial do Marco Civil (Lei nº 12.965/14 – MCI) e a possível implementação de novas legislações buscam adaptar o regime jurídico às realidades digitais emergentes.
O Marco Civil da Internet foi pioneiro ao estabelecer um interessante regime de responsabilidade civil para os provedores de aplicações de internet, nos casos de danos advindos de conteúdos de terceiros. O MCI dispõe que, como regra, o dever de remoção de conteúdos nascerá a partir de uma ordem judicial. A Lei não impede, porém, que os provedores de aplicações possam determinar requisitos para a remoção direta de conteúdos em suas políticas de uso e atendam a possíveis notificações extrajudiciais enviadas, quando serão responsáveis diretamente pela remoção e/ou filtragem do material.
Entretanto, após 10 anos da entrada em vigor da referida norma, o crescente uso das redes sociais e a complexidade das interações online vêm demandando discussões mais profundas acerca da temática. Discussões como a do Recurso Extraordinário 1.037.396, em análise no Supremo Tribunal Federal, desafiam a constitucionalidade do artigo 19 do Marco Civil, questionando a adequação do regime atual às necessidades contemporâneas de proteção de direitos e liberdades online.
Uma estratégia de moderação de conteúdo bem desenvolvida é crucial para combater discursos extremistas, de ódio e violentos. No entanto, aumentar desproporcionalmente a responsabilidade das plataformas por conteúdos de terceiros pode levar a uma censura severa, afetando a liberdade de expressão e a diversidade de opiniões. A moderação deve ser equilibrada e transparente, protegendo liberdades constitucionais e prevenindo danos, com discussões públicas e multissetoriais.
Nesse sentido, alguns defendem que a autorregulação regulada poderia ser um caminho promissor. Haveria, assim, apoio a uma auto-organização dos agentes privados, de acordo com a expertise e as dinâmicas próprias do mercado, mas também o estabelecimento de parâmetros gerais de interesse público importantes ao Estado democrático. Esta abordagem busca evitar a concentração excessiva de poder nas mãos das plataformas, garantindo um ambiente digital mais equilibrado. Adicionalmente, defende-se que as plataformas devem desenvolver órgãos de supervisão para garantir transparência e proporcionalidade nas decisões de moderação. A reflexão sobre o estabelecimento de mais exceções ao artigo 19 do MCI, baseadas em direitos já estabelecidos, pode se mostrar também adequada ao presente momento.
O debate sobre regulação, moderação de conteúdos e responsabilidade civil das plataformas digitais é multifacetado e deve considerar todo o sistema de regulação digital já desenvolvido e em discussão sobre proteção de dados pessoais, inteligência artificial e neutralidade da rede. É essencial que as legislações evoluam para proteger os direitos fundamentais, promovendo a inovação e garantindo um ambiente online seguro. O desafio é comum a todos os países e blocos regionais, que devem continuar a debater suas normas levando em conta o desenvolvimento tecnológico e as mudanças sociais, políticas e culturais.
Nota: O tema foi aprofundado em TEFFÉ, Chiara Spadaccini de; SOUZA, Carlos Affonso. Moderação de conteúdo e responsabilidade civil em plataformas digitais: um olhar sobre as experiências brasileira, estadunidense e europeia. In: Joyceane Bezerra de Menezes, Fernanda Nunes Barbosa. (Org.). A prioridade da pessoa humana no Direito Civil-Constitucional: estudos em homenagem a Maria Celina Bodin de Moraes. 1.ed. Foco, 2024, p. 25-37.
(1) Quer aprender as principais tendências e temas em governança e direito digital? Inscrições abertas para o curso “Governança Digital: Regulação e Novas Fronteiras Tecnológicas”. As aulas começarão no dia 22 de julho ao vivo e ficarão também gravadas.
(2) O curso – que conta com 7 aulas – oferece uma imersão profunda nos temas mais pertinentes e atuais da regulação digital e da governança da internet. Ideal para profissionais e estudantes que desejam estar na vanguarda das discussões legais e regulatórias.
(3) Prepare-se para debater temas como desinformação e responsabilidade das plataformas digitais, proteção de crianças e de adolescentes online, regulamentações emergentes para a Inteligência Artificial, cibersegurança e os 10 anos do Marco Civil da Internet.
autora
{{ pessoas.pessoaActive.title }}
conteúdos relacionados
publicações
A geração ansiosa: como a internet afeta a saúde mental de crianças e adolescentes
Por Sérgio Branco e Celina Bottino Saiba Mais
publicações
5 leituras sobre Governança Digital, seus desafios e transformações
Por Chiara de Teffé e Vanessa Vargas Saiba Mais