Como combater deepfakes?

Coluna de Ronaldo Lemos na Folha de São Paulo

publicado em

11 de março de 2019

categorias

{{ its_tabs[single_menu_active] }}

tema

Vídeos ainda são evidências vistas com os próprios olhos

O fenômeno das “deepfakes” tornou-se uma questão geopolítica. Exemplo disso é o recente artigo sobre o tema na revista Foreign Affairs.

O termo “deepfake” refere-se à possibilidade de usar inteligência artificial e outras ferramentas para criar imagens ou vozes falsas, mas incrivelmente parecidas com a realidade. Por esses recursos dá para gerar uma foto, um áudio ou um vídeo de situação que nunca existiu. Por exemplo, imagens de um político ou celebridade que não aconteceram de fato.

Hoje as pessoas acreditam intuitivamente naquilo que veem, especialmente vídeos. Textos e fotos geram menos confiança, porque cada vez mais gente sabe que podem ser manipulados. No entanto, vídeos ainda são evidências vistas “com os próprios olhos”.

Um exemplo familiar é o vídeo que circulou nas eleições para o governo de São Paulo, que trazia imagens atribuídas ao futuro governador em situação íntima.

De um lado, houve quem afirmasse que o vídeo era claramente real. De outro lado, quem dissesse que era claramente montagem. Em um mundo no qual as “deepfakes” existem, é difícil estabelecer objetivamente a verdade. A mera existência das “deepfakes” é suficiente para embaralhar os limites do falso e do verdadeiro.

No artigo da Foreign Affairs, há três estratégias propostas para combater as “deepfakes”. Duas já foram discutidas aqui na coluna, e uma é novidade.

A primeira é utilizar a própria inteligência artificial para analisar “deepfake” e apontar fraudes.

O problema dessa estratégia é que, ao treinar uma inteligência artificial para identificar fraudes, ela também se torna capaz de aperfeiçoar as falsificações. O remédio vira veneno. Quanto melhor o detetive, mais astuto se torna o ladrão.

A segunda estratégia é criar uma espécie de “certificado de realidade” usando blockchain. Os fabricantes de câmeras e equipamentos de áudio seriam obrigados a certificar imagens e sons captados diretamente da realidade com blockchain.

Se uma imagem sofre alguma alteração, perde então o “certificado”, indicando que pode ter sido manipulada. Essa solução é imperfeita. Nenhum fabricante está disposto a fazer isso até o momento.

Seria também possível forjar certificados falsos, abrindo margens para fraudes ainda mais
difíceis de serem apuradas.

Por fim, a estratégia nova está sendo chamada de “serviços de certificação de álibi”. A proposta é surpreendente. Por ela, qualquer pessoa pública, como político ou celebridade, teria de gravar e certificar 100% da sua vida detalhadamente.

Em outras palavras, gravar toda e qualquer palavra que pronuncia, registrar todos os lugares em que esteve, as pessoas com que se encontrou etc. Tudo seria então autenticado em tempo real por um desses serviços de criação de “álibis”.

Se alguém fizesse uma “deepfake” sobre a pessoa, ela seria então capaz de provar com base em seus registros que não falou aquilo, não se encontrou com aquela pessoa, não estava naquele lugar naquela hora. Seria uma espécie de autovigilância preventiva.

Parece loucura, mas, no mundo em que estamos vivendo hoje, não seria surpresa que pessoas públicas, como presidentes ou juízes da Supremas Cortes, adotassem esse tipo de estratégia como medida preventiva.

READER

Já era Terrorismo apenas analógico

Já é Terrorismo digital, nos moldes do Estado Islâmico

Já vem Terrorismo estocástico (demonizar publicamente pessoa ou grupo para incitar ato de violência aleatório, mas estatisticamente provável, contra ele)

{{ pessoas.pessoaActive.title }}

×