Fora da televisão, o recurso já foi utilizado para criar vídeos falsos de personalidades públicas, como os ex-presidentes americanos Barack Obama e Donald Trump, a cantora Taylor Swift e a atriz Gal Gadot, além de políticos brasileiros como o atual presidente Lula e o ex-presidente Jair Bolsonaro. Nas linhas a seguir, entenda como funciona a tecnologia deepfake e quais riscos ela apresenta.
/i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2023/W/X/m2U8EvTXG7cxNWlAQmsQ/vlcsnap-2023-03-14-11h48m48s200.png)
Em um chat de vídeo, a adolescente Karina (Danielle Olímpia) conversa com a falsa influencer Bruna Schuler (Giullia Buscacio), que na verdade é um deepfake feito por um pedófilo — Foto: Divulgação/Rede Globo.
Deepfake: como funciona e quais os riscos?
Os vídeos deepfake são criados por meio de programas que usam aprendizado de máquina e outros recursos de IA para adulterar rostos e vozes. Funciona assim: o software é alimentado com centenas ou milhares de fotos e vídeos das pessoas envolvidas. Os dados, então, são processados por uma rede neural, de forma que o computador aprenda como é determinado rosto, como ele se mexe e reage a luz e sombras, por exemplo. Esse “treino” é feito com o rosto do vídeo original e com o novo rosto, até que o programa seja capaz de encontrar um ponto comum entre as duas faces e “costurá-las".
Hoje, sites como Deepfakes web e softwares como DeepFaceLab permitem que usuários com ou sem experiência em edição de vídeo e programação criem deepfakes com certa facilidade. Parte dos internautas utiliza a tecnologia para criar memes e outros conteúdos inofensivos, contudo, como é retratado pela novela, alguns aproveitam o recurso para fins ilícitos.
Em uso inofensivo, deepfake permite trocar o rosto de atores famosos em filmes, colocando Edward Norton no lugar de Brad Pitt em Clube da Luta — Foto: Reprodução/CTRL Shift Face
Em Travessia, um criminoso utiliza a tecnologia deepfake para se passar por uma atriz e, assim, enganar a adolescente Karina. O infrator finge ser a celebridade Bruna Schuler (Giullia Buscacio) com o intuito de se aproximar da jovem e conseguir fotos íntimas — as quais, segundo ele, seriam necessárias para levar a adolescente para o mundo artístico. Para isso, o pedófilo utiliza deepfake em tempo real, o que o permite, inclusive, conversar por vídeo e não ser descoberto.
Figuras públicas da política, do jornalismo e do entretenimento também já foram afetadas pela tecnologia. Em setembro do ano passado, viralizou na Internet um vídeo falso do Jornal Nacional no qual afirmava-se que o então candidato à reeleição Jair Bolsonaro ocupava o primeiro lugar nas pesquisas de intenção de voto. O conteúdo foi desmentido pelo telejornal.
Gal Gadot, atriz que interpreta mulher-maravilha, foi vítima de deepfake pornográfico — Foto: Reprodução/Vice
Como identificar deepfakes e se proteger
Ainda que as deepfakes tenham evoluído com o tempo, existem métodos para identificar se o vídeo é real ou falso. Como a técnica não é perfeita, o usuário deve prestar atenção aos detalhes do rosto da pessoa para tentar identificar inconsistências na textura da pele (na bochecha ou nariz) ou nos olhos. Isso porque é possível que haja falhas tanto nas piscadas quanto nos movimentos da boca durante a fala. Mesmo quando não há erro, os rostos modificados por IA dificilmente aparentam ser tão naturais quanto os de humanos, então vale a pena atentar para expressões robóticas.
/i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2023/s/t/ejIzRrQSCrSXZ0qd0QIA/vlcsnap-2023-03-14-11h49m20s717.png)
Durante a conversa no chat de vídeo, o pedófilo utiliza um programa que cria um deepfake em tempo real — Foto: Divulgação/Rede Globo.
JORNALISTA: JOSINALDO SOARES
REGISTRO:0001662/MA
FONTE: Jonathan Firmino
Postar um comentário