Efeito bumerangue: aviso sobre IA em conteúdo eleitoral prejudica candidato

Coluna de Carlos Affonso Souza no Uol Tilt.

publicado em

14 de outubro de 2024

categorias

{{ its_tabs[single_menu_active] }}

tema

Carlos Affonso Souza comenta sobre uso de IA em anúncios eleitorais

Você confiaria mais ou menos em um conteúdo eleitoral com aviso de que foi feito com inteligência artificial? Legislações ao redor do mundo, inclusive no Brasil, começaram a exigir que campanhas indiquem quando isso acontece de modo relevante. O objetivo é informar ao eleitor de aquilo que está vendo, lendo ou ouvindo sofreu manipulação importante.

Mas será que os avisos são realmente informativos? Ou será que geram mais dúvidas no eleitor, que passa a questionar o que foi realmente alterado no conteúdo eleitoral?

Um estudo do Center on Technology Policy, da New York University (NYU), investigou esses efeitos em experimento online com 1.051 participantes.

Foram testados diferentes anúncios políticos, tanto positivos quanto de ataque, com e sem os avisos obrigatórios de IA. A filiação política dos participantes também foi usada na avaliação.

No estado de Michigan, os anúncios feitos com IA generativa de forma não perceptível devem incluir, por lei, o seguinte aviso durante todo o vídeo: “Este vídeo foi manipulado por meios técnicos e retrata falas ou condutas que não ocorreram”.

Já a Flórida exige que qualquer anúncio político com IA generativa exiba a mensagem: “Este vídeo foi criado, no todo ou em parte, com o uso de inteligência artificial generativa”.

A pesquisa revelou alguns achados importantes:

1. Impacto negativo para candidatos que usam IA: em geral, candidatos que usaram IA generativa em seus anúncios foram considerados menos confiáveis e atrativos. Os anúncios com IA também foram vistos como menos precisos, e os eleitores demonstraram maior propensão a denunciar ou rejeitar esses anúncios nas redes sociais.

2. Efeito bumerangue em conteúdos de ataque: o uso de IA gerou um efeito bumerangue para os candidatos que criaram anúncios de ataque. Os eleitores passam a olhar com desconfiança para as razões e o contexto do ataque, além do conteúdo não modificar a forma pela qual os eleitores enxergavam o candidato atacado. O feitiço virou contra o feiticeiro.

3. Piora na avaliação de candidatos com quais o eleitor se identifica: curiosamente, os avisos reduziram a avaliação dos candidatos que pertenciam ao mesmo partido político dos participantes ou com os quais os eleitores possuíam afinidade. Isso sugere que os eleitores ficaram mais céticos sobre anúncios que tenderiam a apoiar.

4. Pouca percepção dos avisos: um número significativo de participantes não notou os avisos de IA (até 37%), o que levanta dúvidas sobre a eficácia desses avisos.

5. A redação do aviso importa: a maneira como o aviso é redigido afeta a percepção. Avisos mais detalhados (como o da Flórida) foram mais eficazes em comunicar o uso de IA, enquanto avisos mais vagos (como o de Michigan) levaram os participantes a assumirem que outras técnicas de manipulação, como edição de vídeo, foram usadas.

6. Eleitores apoiam avisos para todos os usos de IA: os eleitores são menos favoráveis a políticas que exigem avisos apenas em casos de uso enganoso de IA. A maioria apoia avisos obrigatórios em todos os anúncios políticos que utilizam IA, independentemente de seu caráter enganoso.

Esse último achado é interessante. Por mais que os eleitores não identifiquem os anúncios ou acreditem que eles prejudicam a avaliação do candidato, preferem que exista o aviso e optam por soluções regulatórias que ampliem (ao invés de restringir) a sua inserção.

Tudo indica que, em um futuro bem próximo, usar IA para criar conteúdo de campanhas será a regra, e esses avisos não farão nem sentido. Seria como eu avisar a você que essa coluna foi escrita com Microsoft Word.

Mas esse tempo ainda não chegou, e as diferentes visões que as pessoas têm sobre IA joga luz sobre a importância desses avisos.

Como funcionam os avisos de IA nas eleições brasileiras

No Brasil, a Resolução nº 23.732/2024, do Tribunal Superior Eleitoral (TSE), determina que o responsável pela propaganda eleitoral deve informar “de modo explícito, destacado e acessível que o conteúdo foi fabricado ou manipulado e a tecnologia utilizada” quando o uso de IA “criar, substituir, omitir, mesclar ou alterar a velocidade ou sobrepor imagens ou sons” (art. 9º-B).

Essa exigência não se aplica quando a IA for usada para ajustes na qualidade da imagem ou do som, na produção de elementos gráficos de identidade visual, vinhetas e logomarcas, além de “recursos de marketing de uso costumeiro em campanhas”.

Alguns casos chegaram na Justiça Eleitoral esse ano, mas, finalizado o primeiro turno das eleições municipais, não aconteceu o apocalipse do uso de IA para manipular conteúdos que alguns esperavam.

Essa é uma oportunidade para analisar a experiência e entender como as regras eleitorais podem ser ferramenta para avançar uma agenda sobre educação digital para todos.

Indicar que um conteúdo foi gerado por IA é um passo importante para aumentar a transparência e combater a desinformação, especialmente quando a educação midiática ainda precisa ser amplamente desenvolvida.

Mas, resta o questionamento: o que deve ser incluído nesses avisos de IA?

O Brasil, diferente dos estados norte-americanos, não traz uma redação expressa que deve ser usada nos anúncios eleitorais.

A pesquisa da NYU mostrou que a redação e o design desses avisos afetam significativamente como as pessoas os interpretam.

Além disso, como o público valoriza essas sinalizações? Será que, ao invés de aumentar a confiança, esses avisos podem acabar gerando mais ceticismo e desconfiança?

Esse dever de casa fica para o aprimoramento das regras de olho nas eleições de 2026.

autor

{{ pessoas.pessoaActive.title }}

×