Um site de GIFs está usando inteligência artificial para combater conteúdo deepfake.
O deepfake consiste em substituir o rosto de uma pessoa pelo de outra de forma realista, e muitas vezes é difícil separar o que é real do que foi fabricado. A tecnologia utilizada para isso não é complexa, e, como consequência, muitas pessoas a estão utilizando para editar rostos em vídeos de conteúdo adulto — incluindo de celebridades.
Sites como Reddit e Twitter estão enfrentando dificuldades para encontrar e deletar os vídeos alterados em suas plataformas, assim como muitos outros, mas o site Gfycat prova que é possível identificar parte dessas criações automaticamente.
Segundo o Wired, o Gfycat possui algumas ferramentas para auxiliar os usuários na hora de fazerem o upload de seus GIFs na plataforma. A Project Angora pega o GIF e procura uma versão melhorada na internet, e a Project Maru trata de identificar as pessoas do GIF e coloca a tag correspondente.
Ainda há mais uma ferramenta utilizada pelo Gfycat para encontrar conteúdo falso, que usa a tecnologia da Angora, mas coloca uma máscara para cobrir o rosto da pessoa e procura o resto do GIF na internet. Caso encontre o vídeo original, a inteligência artificial aponta que o GIF foi feito a partir de um vídeo alterado ou, em caso de dúvida, notifica os funcionários humanos da Gfycat para que eles avaliem se o conteúdo foi alterado ou não.
Ainda não há uma legislação específica para esses casos em que o rosto de uma pessoa, celebridade ou não, é colocado no corpo de outra, geralmente em vídeos de cunho sexual, o que torna toda a prática muito controversa.