Um vídeo lançado na internet gerou um turbilhão na corrida eleitoral para o governo de São Paulo na terça-feira (23/10). As imagens que viralizaram nas redes sociais são de um vídeo íntimo com suposta participação do candidato João Doria (PSDB). O ex-prefeito negou ter participado das imagens e chamou a gravação de "produção grotesca, fake news".
Nesta quarta-feira, dois peritos se manifestaram a pedido de veículos de comunicação. À revista Veja São Paulo, a advogada e perita criminal Roselle Sóglio afirmou que o vídeo foi manipulado digitalmente sobre a face de uma outra pessoa. Já o especialista em crimes virtuais Wanderson Castilho afirmou o mesmo ao site O Antagonista.
Porém, como um vídeo dessa natureza, que pareceu tão convincente para leigos poderia ser produzido. Ao Correio, o professor Moacir Ponti, do Instituto de Ciências Matemáticas e de Computação da Universidade de São Paulo (USP), disse que existe sim, hoje, tecnologia que permite tal manipulação.
Trata-se de um tipo de inteligência artificial chamada de deepfake (falsidade profunda, em tradução livre), que recria o rosto e os movimentos de outras pessoas em um vídeo. "É um método baseado em aprendizado profundo (deep learning, em inglês), que visa a aprender a partir dos padrões da face de uma determinada pessoa. Ele pega os pontos-chaves de uma pessoa A e de uma pessoa B, possibilitando a substituição dos rostos", explica o professor.
Para obter um resultado de qualidade, detalha o docente, é preciso ter uma grande quantidade de imagens das faces das duas pessoas ; por isso é mais fácil utilizar a tecnologia com personalidades da mídia ; e não pode haver nenhum elemento que cubra o rosto trocado. Ainda segundo Ponti, a tecnologia é bastante acessível. "Os métodos mais simples estão disponíveis na internet com código aberto. Ele não foi pensado para esse fim, mas a pessoa que baixou pode acabar usando dessa forma", afirma.
Em relação ao vídeo de João Doria, especificamente, o professor é mais cauteloso que os outros especialistas. "A princípio, com uma análise mais simples, não daria para dizer que é uma montagem. É inconclusivo", arremata.
Deepfake
O termo deepfake remete ao fim do ano passado, quando um usuário da rede Reddit começou a publicar vários vídeos pornográficos com famosos, como a atriz Gal Gadot. Antes disso, porém, pesquisadores da Universidade de Washington já haviam apresentado a tecnologia ao mundo. Eles criaram um vídeo praticamente irretocável simulando uma fala do ex-presidente norte-americano Barack Obama.
À época, uma das responsáveis pela pesquisa, a professora Ira Kemelmacher-Shilzerman, já havia alertado para os riscos do deepfake. "Nós estamos desenvolvendo uma tecnologia. Toda tecnologia pode ser usada de forma negativa e todos nós devemos trabalhar juntos para que isso não aconteça", disse à rede BBC.
[VIDEO1]
Outro que alertou sobre os problemas que a nova tecnologia poderia criar foi o pesquisador Giorgio Patrini, da Universidade de Amsterdã, que tem se dedicado ao deepfake. "Se houver incentivo financeiro ou político suficiente para que atores mal-intencionados façam isso, é inteiramente possível que a fabricação de vídeos seja usada em futuras campanhas políticas", avaliou à Agência Estado.
Ponti dá algumas dicas simples que podem ajudar uma pessoa comum a evitar ser enganada por vídeos em que a tecnologia foi utilizada. "A primeira coisa a se observar são os lábios, dentes e regiões de intersecção da face com outras partes da cabeça [cabelos e pescoço]", pontua. "Dentes e bocas não ficam bem definidos e as regiões de transição ficam borradas", completa.