Deepfakes e a onda de vídeos que mostram o que nunca aconteceu

Todos nós já recebemos pelo menos alguma notícia fake compartilhada em um grupo de família no Whatsapp ou encaminhada em alguma corrente de emails. Tecnologias como aplicativos de mensagem instantânea como o Whatsapp facilitaram a disseminação de notícias falsas e sem fundamento, sendo muitas vezes difícil rastrear suas origens. O mesmo acontece para vídeos, que podem ser alterados, tirados de contexto, manipulados e até fazerem uso de inteligência artificial para criar vídeos que parecem reais, conhecidos como deepfakes.

Circula pela internet um vídeo de um avião da Boeing que “decola a quase 90 graus”. Esse é um exemplo de uma sequência de vídeos e filmagens reais, feitas com as câmeras em certos ângulos que dão a impressão de que o avião está decolando na vertical, enquanto o ângulo não passa de aproximadamente 35 graus, de acordo com esse vídeo do canal do YouTube Aviões e Música: https://www.youtube.com/watch?v=vXj3TL3DzlU.

nancypelosi.PNG

Snapshot de vídeo da Presidente da câmara dos Estados Unidos, Nancy Pelosi, vítima de uma alteração de um vídeo. Fonte: New York Times

No mês passado, foi divulgado um vídeo da democrata Nancy Pelosi, atual presidente da câmara dos Estados Unidos, em que ela parece estar embriagada. Não é difícil de perceber que existe algo de errado com o vídeo, que foi simplesmente alterado para 75% da velocidade original, e que também teve uma alteração no som para soar mais parecido com a voz original. Uma breve análise do Washington Post está no vídeo a seguir: https://www.youtube.com/watch?v=sDOo5nDJwgA

Com a divulgação deste vídeo, políticos de todo o mundo começaram a se preocupar com um tipo de falsificação de vídeo mais sofisticado, chamado de deepfake (combinação de deep, de deep learning, e fake, falso em inglês). Estes vídeos são gerados utilizando dois sistemas de inteligência artificial que competem um com o outro. Enquanto um cria vídeos falsos, o outro analisa o vídeo para decidir se ele é real ou não. Se o sistema decidir que o vídeo é falso, ele dá uma dica do que não fazer para o outro, que então gera uma melhoria no vídeo, e assim segue. Juntos, estes dois sistemas de inteligência artificial criam um sistema chamado de generative adversarial network (GAN). O primeiro passo para estabelecer um sistema GAN é identificar o resultado desejado e criar uma base de dados de treino para o sistema de inteligência que vai gerar o vídeo. Quando vídeos razoáveis começam a ser criados, o outro sistema começa a analisá-los. Enquanto um sistema fica melhor em gerar vídeos falsos, o outro fica melhor em analisá-los e identificar os sinais de que ele é falso. Um exemplo de uso de GAN é para criar imagens. O website This Person Does Not Exist (https://www.thispersondoesnotexist.com/) usa este sistema para criar fotos de pessoas utilizando outras imagens como treino para o algoritmo. Segue mais um exemplo de vídeo, em que deepfake é usado para fazer dois comediantes americanos parecerem o ex-presidente americano Barack Obama e o atual presidente Donald Trump:

obamatrump.PNG

Vídeo alterado com a tecnologia deepfake. Assista em: https://www.youtube.com/watch?v=rvF5IA7HNKc

Com as eleições presidenciais americanas se aproximando (as próximas acontecem em Novembro de 2020), líderes mundiais estão preocupados com a possibilidade de surgirem vídeos falsos dos próximos candidatos criados pela oposição para prejudicar suas imagens. Pesquisadores da UC Berkeley e da University of Southern California nos Estados Unidos recentemente publicaram uma pesquisa em que eles desenvolveram um sistema de inteligência artificial para combater deepfakes (“Protecting World Leaders Against Deep Fakes”, Agarwal, Farid, Gu et al. 2019). Este sistema se baseia em linguagem corporal e pequenos movimentos e gestos individuais de cada pessoa para identificar vídeos falsos. Assim como a inteligência artificial do deepfake, ele utiliza vídeos reais para aprender os gestos típicos de cada pessoa e identificar quando um vídeo falso é criado. Durante testes, mais de 90% dos vídeos falsos foram identificados. Os próximos passos desta pesquisa envolverão outros aspectos dos vídeos, como as características individuais da voz de cada pessoa. No entanto, considerando a velocidade com que os sistemas de inteligência artificial do deepfake estão evoluindo, muito mais pesquisas na área são necessárias para que esta tecnologia não aumente ainda mais a quantidade de fake news espalhadas por aí.

Referência:

“Protecting World Leaders Against Deep Fakes”, Agarwal, Farid, Gu et al. 2019. Link.

Deixe um comentário

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair /  Alterar )

Foto do Google

Você está comentando utilizando sua conta Google. Sair /  Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair /  Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair /  Alterar )

Conectando a %s