Comitê da Meta aponta os erros na moderação de vídeo golpista no Facebook

Leia a coluna da semana de Carlos Affonso Souza para Uol Tilt.

publicado em

5 de julho de 2023

categorias

{{ its_tabs[single_menu_active] }}

tema

O Comitê de Supervisão da Meta reverteu a decisão da empresa em manter no ar um vídeo postado no Facebook retratando um general brasileiro que instava a população a invadir Brasília e “sitiar os Três Poderes”.

O Comitê reconheceu os esforços da Meta para avaliar e mitigar os riscos durante e após as eleições, mas enfatizou a necessidade de a empresa fazer melhorias para evitar que suas plataformas sejam usadas para incitar a violência no contexto das eleições.

O caso avaliado pelo Comitê surgiu no contexto das eleições presidenciais de outubro de 2022 e todo o conjunto de conteúdos publicados online que buscavam apontar a existência (infundada) de fraude no processo de votação eletrônica, além de pedir por intervenção militar e incitar a invasão de prédios públicos.

Em 3 de janeiro de 2023, um usuário do Facebook postou um vídeo com um discurso de um general brasileiro que apoiava a reeleição do ex-presidente Jair Bolsonaro. O general, fardado, instou a população a “sair às ruas” e “ir ao Congresso Nacional… [e ao] Supremo Tribunal Federal”.

O vídeo também incluía imagens de um incêndio na Praça dos Três Poderes em Brasília com um texto sobreposto que dizia: “Venha para Brasília! Vamos invadir! Vamos sitiar os três poderes”, além de “exigimos o código fonte”.

Falha na moderação de conteúdo

No total, quatro usuários denunciaram o conteúdo sete vezes entre os dias 3 e 4 de janeiro. Após a primeira denúncia, o conteúdo foi revisado por um moderador humano e considerado não violador das políticas da Meta. O usuário recorreu dessa decisão, mas ela foi mantida por um segundo moderador humano.

No dia seguinte, outras seis denúncias foram revisadas por cinco moderadores diferentes e todos apontaram que o conteúdo não violava as políticas da rede social.

Em sua decisão, o Comitê indicou ser preocupante o fato de que esse material nem mesmo foi selecionado para uma revisão posterior por um time especializado. Embora os processos de moderação de conteúdo variem de empresa para empresa, é comum que novos conteúdos postados em redes sociais passem por um pente-fino que mistura aplicações de inteligência artificial e um olhar humano.

Nesse caso, a Meta esclareceu ao Comitê que as sete pessoas que revisaram o conteúdo residiam na Europa, eram fluentes em português e tinham a expertise cultural para revisar conteúdos brasileiros.

Comitê de olho no período pós-eleitoral

O Comitê fez quinze perguntas por escrito para a Meta sobre como a empresa atua no contexto de eleições nacionais. As questões foram relacionadas a:

– Existência de mecanismos para identificar comportamentos coordenados nas redes,

– Os riscos identificados antes das eleições brasileiras de 2022,

– Tendências na utilização das plataformas digitais antes, durante e depois das eleições,

– Além dos recursos de linguagem dos moderadores de conteúdo que revisaram o caso.

O Comitê entendeu que esse caso era de especial relevância porque ele ajuda a entender como a Meta distingue a organização pacífica em suas redes da incitação ou coordenação de ações violentas, especialmente em um contexto de transição de poder após a realização de eleições.

Segundo a decisão do Comitê,

“Os períodos pós-eleitorais são momentos cruciais tanto para contestar a integridade de uma eleição quanto para garantir que os resultados eleitorais legítimos sejam respeitados.”

Os motivos do erro Segundo a Meta informou ao Comitê, três fatores podem ter contribuído para o erro na moderação de conteúdo.

1. O primeiro pode ter sido derivado de uma falta de pontuação no texto do vídeo golpista “que levou à má interpretação do conteúdo como um comentário neutro sobre o evento”.

É verdade que a pontuação pode mudar radicalmente a compreensão de um conteúdo, mas nesse caso parece estranho que a ausência de um ponto de exclamação ou de vírgulas possam colocar em dúvida o sentido do material quando o texto vinha acompanhado de imagens da Praça dos Três Poderes pegando fogo e de um general incitando a invasão da capital.

2. Uma segunda explicação para o erro teria sido uma falha dos moderadores em perceber que o procedimento de revisão para conteúdos relacionados ao Brasil estava sujeito a um regime diferenciado, que torna mais rígido o controle sobre o que é publicado na plataforma.

Para as eleições de 2022, a Meta designou o Brasil como “Local Temporário de Alto Risco”, um elemento importante para sinalizar essa mudança nos processos internos de moderação de conteúdo.

Essa designação foi inicialmente estabelecida em 1º de setembro de 2022 com base na avaliação da Meta de aumento do risco de violência associado a distúrbios civis no contexto do processo eleitoral.

A designação foi estendida para cobrir a eleição de outubro de 2022, além do período pós-eleitoral, sendo essa condição vigente na plataforma até 22 de fevereiro de 2023. Sendo assim, a designação estava em vigor quando o conteúdo golpista foi publicado.

3. Por fim, a empresa alegou que os moderadores podem não ter identificado violação no vídeo.

O Comitê ressaltou que as explicações 1 e 3 “sugerem que os moderadores não revisaram o conteúdo com cuidado nem assistiram ao vídeo na íntegra, pois era clara a possível violação das políticas da Meta nele contidas.”

Segundo a decisão do Comitê:

– A empresa errou ao não subir o conteúdo para uma revisão mais especializada apesar de ter vindo de um país que, quando o conteúdo foi postado e denunciado, era designado como ‘Local temporário de alto risco’ e no qual havia todo um contexto dentro e fora das redes de mobilização para contestar o resultado das eleições.

O Comitê considerou que vários elementos do caso foram relevantes para sua análise:

– Os apelos para “sitiar” o Congresso Nacional como “última alternativa” e “invadir” os “três poderes”;

– O vídeo conter uma convocação de um general brasileiro para “sair às ruas” e “ir ao Congresso Nacional ? [e ao] Supremo Tribunal Federal”;

– A imagem dos prédios do governo federal queimando ao fundo;

– Além da demanda pelo “código-fonte”, uma pauta reiterada (e incoerente) na construção de narrativas sobre fraudes no processo de votação eletrônico.

Segundo o Comitê, ao apreciar o vídeo:

“A intenção do autor, o conteúdo do discurso e seu alcance, bem como a probabilidade de prejuízo iminente decorrente do contexto político do Brasil à época, justificariam a remoção do conteúdo.”

Atuação de plataformas digitais nas eleições

O Comitê considerou que a Meta deve desenvolver uma estrutura para avaliar os seus esforços de integridade eleitoral e produzir relatórios públicos sobre o assunto.

Isso forneceria à empresa dados relevantes para melhorar seu sistema de moderação de conteúdo e decidir a melhor forma de empregar seus recursos em contextos eleitorais.

Sem essas informações —apontou a decisão— nem o Comitê nem o público conseguem avaliar a eficácia dos esforços de integridade eleitoral da Meta.

Essa medida incluiria ainda a criação e o compartilhamento de métricas para esforços de integridade eleitoral bem-sucedidos, incluindo aqueles relacionados à moderação de conteúdo e o tratamento de anúncios no contexto eleitoral.

A decisão do Comitê nesse último ponto traça um caminho para o diálogo sobre a atuação de plataformas digitais no contexto eleitoral. As grandes plataformas geralmente possuem uma política sobre integridade eleitoral. Embora as medidas adotadas variem, existe consenso de que uma parte cada vez mais expressiva do debate eleitoral acontece nas redes.

Mas como medir se uma empresa foi bem-sucedida nos esforços em conter desinformação nas suas redes?

Como saber em quais plataformas o debate eleitoral se deu de forma mais ou menos desenvolvida?

Como melhorar os processos de revisão de anúncios e de publicações em geral no contexto eleitoral?

Até aqui a relação do Poder Público com as grandes plataformas digitais se deu por meio de acordos para aperfeiçoar dinâmicas de moderação de conteúdo no período das eleições.

Mas como fazer com que as lições aprendidas no contato com uma plataforma sejam escaladas, se possível, para as demais?

Para o Brasil, que vive o rescaldo dos atos de 8 de janeiro, esse debate precisa amadurecer rapidamente, ainda mais com os desafios ligados ao desenvolvimento de inteligência artificial que se avizinham em um horizonte cada vez mais próximo.

A decisão do Comitê de Supervisão da Meta chama atenção pela falha na moderação de conteúdo identificada pelo grupo, mas ela talvez seja ainda mais importante ao apontar questões de processo que podem ser refletidas nas práticas de outras grandes plataformas e por levantar a bola sobre a necessidade de se ter métricas para avaliar o desempenho das empresas de tecnologia no contexto eleitoral.

Moderação de conteúdo não é como um velho jogo de batalha naval, em que o importante é saber se você acertou uma parte de um navio ou errou o tiro. Ela deve olhar para o conjunto geral de medidas que são colocadas de pé para que uma grande empresa tenha condições de mais acertar do que errar. E quando o erro acontecer, que existam recursos que permitam a sua rápida identificação e correção.

Nesse sentido a decisão do Comitê de Supervisão da Meta oferece uma janela preciosa para melhorar a discussão sobre a atuação de plataformas digitais em períodos eleitorais. O relógio está correndo em direção das sempre desafiadoras eleições municipais, que acontecem ao se dobrar a esquina rumo ao ano que vem.

{{ pessoas.pessoaActive.title }}

×