Como detectar vídeos deepfake para evitar desinformação

Com os deepfakes se tornando cada vez mais sofisticados, é mais difícil do que nunca distinguir entre o que é real e o que não é. Hoje, falaremos sobre alguns sinais indicadores que ajudarão você a detectar vídeos deepfake. Com essas ferramentas em mãos, esperamos que você não se torne uma vítima involuntária de notícias falsas e teorias da conspiração. Também daremos uma ideia sobre a tecnologia deepfake, como ela funciona e como é usada por propagandistas e teóricos da conspiração para espalhar desinformação e influenciar os internautas a acreditar em falsidades.

Detectar vídeos deepfake para evitar desinformação e teorias da conspiração

Atualmente, os deepfakes são amplamente usados ​​por amadores para transformar rostos de celebridades em vídeos adultos e por elementos políticos desagradáveis ​​para espalhar notícias falsas. No entanto, os especialistas estão preocupados com usos ainda mais perigosos da tecnologia em um futuro não tão distante. Então, aqui, listamos algumas maneiras de ajudá-lo a detectar vídeos deepfake para evitar que você se torne vítima de desinformação maliciosa.

O que são vídeos Deepfake?

Uma combinação dos termos ‘deep learning’ e ‘fake’, deepfakes referem-se a mídias manipuladas que usam inteligência artificial ou técnicas de deep learning para criar áudios ou vídeos que distorcem a realidade. A tecnologia usa redes neurais artificiais para criar vídeos hiper-realistas que parecem mostrar pessoas dizendo ou fazendo algo que não fizeram na vida real. Os exemplos mais virulentos incluem vídeos transformados com a ajuda de aprendizado de máquina para colocar palavras na boca dos políticos. Isso é usado para criar confusão sobre suas políticas e influenciar as eleições.

Outro uso tóxico de deepfakes é transformar os rostos de celebridades em vídeos adultos em violações massivas de privacidade e dignidade. Os deepfakes se tornaram um grande problema nos últimos anos e só estão piorando com a disponibilidade de hardware mais rápido e software mais incisivo. A tecnologia ganhou notoriedade nos últimos tempos por seu uso extensivo em vídeos pornográficos, notícias falsas e fraudes elaboradas.

No entanto, nem todos os usos de deepfakes são obscuros, como é comprovado pelo vídeo a seguir, criado pelo acadêmico do MIT, Alexander Amini, para arrancar risadas de seus alunos. Aparentemente, mostra o ex-presidente dos EUA, Barack Obama, convidando estudantes para participar da palestra de Amini sobre aprendizado profundo na universidade. No entanto, é um deepfake por completo, como o pesquisador revelou claramente em seu canal no YouTube.

Como funcionam os deepfakes?

Deepfakes dependem de uma rede neural artificial chamada ‘autoencoder’, que é usada para aprender codificações de dados eficientes de maneira não supervisionada. Normalmente é usado para reconhecimento facial, bem como para encontrar o significado semântico das palavras, etc. No caso de vídeos deepfake, a tecnologia primeiro usa um codificador para treinar uma rede neural em muitas horas de imagens de vídeo reais do indivíduo alvo . Em seguida, um decodificador reconstrói uma nova imagem usando informações importantes sobre suas características faciais e postura corporal. Isso ajuda o algoritmo a sobrepor as características faciais e físicas do alvo na pessoa do vídeo original.

Uma tecnologia bem conhecida a esse respeito é uma classe especializada de algoritmos de aprendizado profundo chamada rede adversária generativa. O GAN é frequentemente adicionado ao decodificador para resultados mais precisos. Um GAN treina o decodificador e um discriminador de forma que o primeiro cria novas imagens a partir do material de origem, enquanto o último determina se a imagem recém-criada corresponde ou não à filmagem real. Isso faz com que o gerador crie imagens que imitam extremamente bem a realidade, porque o algoritmo adversário detecta qualquer falha.

Isso torna os deepfakes extremamente difíceis de combater, pois estão em constante evolução. Sempre que um defeito aparece, ele pode ser corrigido automaticamente por meio do aprendizado de máquina. Como não requer nenhuma intervenção humana, o GAN se tornou a melhor escolha para a maioria dos criadores de deepfake. No entanto, a tecnologia é complicada e leva muito mais tempo e dados para criar composições realistas. Além disso, embora os GANs sejam bons para sintetizar imagens, eles têm dificuldade em preservar a consistência temporal, o que significa que precisam de intervenção humana para manter o alinhamento das imagens de um quadro para o outro.

O que são vídeos falsos rasos?

Um vídeo falso superficial é uma versão adulterada de um vídeo real existente, criado para projetar uma realidade distorcida. Isso geralmente inclui edição seletiva, manipulação da velocidade dos discursos ou conversas das pessoas e até mesmo alterar a tonalidade para parecer que alguém está com raiva, embriagado ou tirando sarro de um problema sério, quando nada disso é verdade.

Um caso recente notável inclui o notório vídeo aprimorado da presidente da Câmara dos EUA, Nancy Pelosi, cujo vídeo falso e superficial desacelerou seu discurso para deixá-la embriagada. Esses vídeos são diferentes dos deepfakes, pois são vídeos reais manipulados usando ferramentas tradicionais de edição de vídeo em vez de algoritmos de IA.

Deepfakes: história e aplicações

As técnicas de manipulação de fotos foram originalmente inventadas no final do século XIX. A tecnologia melhorou constantemente ao longo do século XX antes que a explosão das tecnologias de IA e aprendizado de máquina a tornassem um grande problema para os internautas em todo o mundo. As técnicas de manipulação de vídeo com infusão de IA têm sido amplamente estudadas por pesquisadores desde a década de 1990, e muitos dos métodos foram adotados por cineastas em todo o mundo.

Um dos exemplos mais conhecidos de deepfakes sendo usados ​​na indústria do entretenimento mainstream foi a ressurreição do falecido ator Paul Walker. Velozes e Furiosos 7 em 2015. No entanto, embora dezenas de especialistas tenham levado várias semanas para uma recriação crível de Walker, agora a maioria dos amadores com muito pouco conhecimento de codificação apenas algumas horas (ou às vezes até menos) para criar novos vídeos deepfake usando novas técnicas e algoritmos. O fenômeno entrou pela primeira vez na consciência pública em 2017, quando um Redditor usou deepfakes para criar e postar vídeos pornográficos falsos de celebridades.

Perigos dos vídeos deepfake

Vídeos deepfake são um perigo para usuários desavisados ​​que podem ser bombardeados com imagens de um suposto evento desestabilizador, como uma guerra ou ataque terrorista que nunca aconteceu. Pode causar ressentimento e descontentamento na sociedade, levando a um aumento de ataques politicamente motivados com base nas identidades raciais, religiosas e étnicas das pessoas. A tecnologia também pode ser usada para espalhar FUDs (medo, incerteza e dúvida) sobre desastres naturais, causando pânico generalizado. Os especialistas também preveem que, se não forem controlados, esses vídeos podem provocar profundas crises políticas e até atrapalhar as relações internacionais.

Outro grande problema que já assumiu proporções pandêmicas é a ameaça contra mulheres desavisadas. Muitas vezes chamados de pornografia não consensual, os vídeos adultos deepfake representaram mais de 90% de todos os deepfakes na Internet em 2019. Embora tenha começado com vídeos modificados retratando celebridades como Gal Gadot e Alexandra Daddario, desde então se expandiu para atingir o público regular mulheres como parte de falsas campanhas de pornografia de vingança.

Como detectar vídeos Deepfake?

A detecção de vídeos deepfake é um trabalho que até os especialistas costumam achar difícil sem as ferramentas certas. No entanto, pesquisadores do Instituto de Tecnologia de Massachusetts (MIT) apresentaram várias sugestões que podem ajudar as pessoas comuns a distinguir entre vídeos reais e deepfakes. Segundo eles, é preciso prestar muita atenção ao rosto ao tentar verificar se um vídeo de um sujeito humano é real ou falso. Isso porque as manipulações de deepfake de ponta são quase sempre transformações faciais.

o As áreas do rosto em que se deve prestar mais atenção são as bochechas e a testa. A pele parece muito lisa ou muito enrugada? A idade da pele é semelhante à idade do cabelo e dos olhos? “DeepFakes geralmente são incongruentes em algumas dimensões”, dizem os pesquisadores. Da mesma forma, os olhos e as sobrancelhas também podem ser sinais indicadores para observadores experientes de deepfake. Isso porque, segundo os pesquisadores, sombras em vídeos deepfake nem sempre aparecem em lugares que você esperaria. “DeepFakes muitas vezes falham em representar totalmente a física natural de uma cena”eles dizem.

Outro recurso que é uma oferta inoperante é o cabelo facial. Os deepfakes podem adicionar ou remover bigode, costeletas ou barba, mas muitas vezes não conseguem fazer com que as transformações dos pelos faciais pareçam totalmente naturais. O mesmo acontece com as toupeiras faciais que geralmente não parecem naturais o suficiente em deepfakes. O tamanho e a cor dos lábios também podem dar uma dica sobre a validade de um vídeo. A taxa e a velocidade de piscar também podem dizer muito sobre se um vídeo é real ou falso. Piscar anormalmente frequente ou infrequente pode indicar a falsidade profunda de um vídeo.

De acordo com pesquisadores do MIT, deepfakes de alta qualidade não são fáceis de detectar, mas “com a prática, as pessoas podem construir a intuição para identificar o que é falso e o que é real”. Os pesquisadores também criaram uma página da Web completa onde as pessoas podem enviar vídeos e tentar adivinhar se são reais ou falsos. Você pode testar suas habilidades de detecção de deepfake no site Detect Fakes do MIT.

Deepfakes: Prevenção e Ação Legislativa

Vários países de todo o mundo já estão tentando lidar com o perigo claro e presente representado por deepfakes infundidos por IA. Enquanto a China baniu vídeos deepfake em 2019, o estado norte-americano da Califórnia também introduziu legislação semelhante no início do mesmo ano para tornar os deepfakes políticos ilegais, proibindo a criação ou distribuição de vídeos, imagens ou áudio adulterados de políticos dentro de 60 dias de uma eleição . Desde então, outros estados dos EUA, incluindo Texas e Virgínia, também criminalizaram a pornografia deepfake. Em dezembro de 2019, o presidente Trump assinou a primeira lei federal do país para combater deepfakes como parte da Lei de Autorização de Defesa Nacional de 2020.

Enquanto isso, na Índia, não há leis específicas sobre mídia deepfake. Na verdade, as leis relacionadas aos algoritmos de inteligência artificial são, na melhor das hipóteses, incompletas. Um dos usos mais notáveis ​​de deepfakes no país foi visto durante as eleições de 2020 em Delhi, quando a célula de TI do BJP divulgou um vídeo oficial de campanha que pretendia mostrar seu principal candidato ministerial, Manoj Tiwari, apelando para eleitores em hindi, haryanvi e inglês . O problema é que apenas o vídeo em hindi era real, enquanto os outros dois eram clipes de deepfake fabricados usando o vídeo original para alcançar um número maior de eleitores.

Evite a disseminação de desinformação identificando vídeos deepfake

Uma vez que a preservação de produções multimilionárias de Hollywood e agências e organizações patrocinadas pelo Estado, as deepfakes tornaram-se cada vez mais democratizadas nos últimos tempos. Isso está permitindo que internautas regulares criem deepfakes usando aplicativos e sites deepfake. Com o aumento astronômico de deepfakes nos últimos anos, ser capaz de detectá-los é mais importante do que nunca.

Esperamos que as informações aqui tenham ajudado a dar a você uma ideia mais holística da tecnologia, as ameaças que ela representa e os sinais a serem observados para detectar melhor os vídeos deepfake daqui para frente. Então, você já foi vítima de deepfakes de grupos de ação política desagradáveis ​​ou teóricos da conspiração? Deixe-nos saber nos comentários abaixo.

Leave a Comment

Your email address will not be published.