Você já imaginou ver o ex-presidente dos EUA, Donald Trump, abraçando e beijando o médico Anthony Fauci, um dos principais especialistas em doenças infecciosas?
Parece impossível, mas é o que mostra um vídeo criado com a tecnologia de deepfake, que usa algoritmos de inteligência artificial para gerar imagens e vídeos falsos de pessoas fazendo ou dizendo coisas que não fizeram ou disseram na realidade.
O vídeo, que foi publicado no YouTube em março de 2023, é uma sátira política que brinca com a tensão entre Trump e Fauci, que divergiram sobre as medidas de combate à pandemia de COVID-19. Trump chegou a criticar Fauci por defender o uso de máscaras e vacinas, enquanto Fauci rebateu as acusações de que teria mentido sobre a origem do vírus. O vídeo usa imagens reais dos dois políticos, mas altera seus rostos e vozes para criar uma cena fictícia de reconciliação.
Mas como funciona a tecnologia de deepfake?
Basicamente, ela usa redes neurais artificiais, que são sistemas computacionais inspirados no funcionamento do cérebro humano, para aprender a reconhecer padrões faciais e gerar novas imagens a partir de um banco de dados. Uma das técnicas mais usadas é a das redes adversárias generativas (GANs), que treinam um gerador para criar imagens realistas e um discriminador para avaliar a qualidade das imagens geradas. O objetivo é fazer com que o gerador engane o discriminador, produzindo imagens cada vez mais convincentes.
A tecnologia de deepfake pode ter diversas aplicações, como entretenimento, ativismo, educação ou pesquisa. Por exemplo, ela pode ser usada para criar vídeos educativos com personalidades históricas, como Albert Einstein ou Martin Luther King Jr., ou para produzir filmes com atores falecidos, como Carrie Fisher ou Chadwick Boseman. Ela também pode ser usada para fins sociais, como para denunciar violações de direitos humanos ou para promover causas ambientais.
No entanto, a tecnologia de deepfake também traz riscos e desafios, especialmente no que diz respeito à ética e à veracidade das informações. Ela pode ser usada para criar conteúdo falso para diversos propósitos, como extorsão, difamação, manipulação ou desinformação. Por exemplo, ela pode ser usada para criar vídeos pornográficos com pessoas sem o seu consentimento, para forjar provas criminais ou para espalhar notícias falsas sobre eventos políticos ou sociais.
Diante desses perigos, há esforços para detectar e regular o uso de deepfakes, tanto por parte de empresas como de pesquisadores. Por exemplo, o Facebook lançou em 2020 um desafio global para desenvolver algoritmos capazes de identificar vídeos falsos. A Adobe também criou uma ferramenta chamada Content Authenticity Initiative, que visa rastrear a origem e a autoria das imagens digitais. Além disso, há pesquisadores que estão trabalhando em métodos para analisar as inconsistências nos vídeos falsos, como o professor Hany Farid da Universidade da Califórnia em Berkeley, ou para criar leis e normas para proteger as vítimas dos deepfakes, como a professora Cynthia Rudin da Universidade Duke.
A tecnologia de deepfake é uma das mais impressionantes e controversas da atualidade. Ela mostra o potencial e os limites da inteligência artificial, que pode ser usada tanto para o bem quanto para o mal. Por isso, é importante estar atento e informado sobre os seus usos e consequências, e buscar sempre fontes confiáveis e verificadas antes de compartilhar ou acreditar em qualquer conteúdo digital.