Nos últimos anos, a tecnologia tem avançado rapidamente, permitindo a criação de textos, imagens e até mesmo vídeos com uma precisão impressionante devido ao crescimento no uso da IA (Inteligência Artificial). Porém, a parcela de criminosos que utilizam desse tipo de ferramenta para adulterar áudios, imagens e vídeos também tem aumentado.
Prova disso é que, no Brasil, o crescimento do uso de deepfake no último ano foi o maior da América Latina, atingindo impressionantes 830%, conforme aponta o relatório anual Sumsub Identity Fraud Report 2023. Criminosos têm encontrado novas maneiras de explorar essa tecnologia e, agora, se aproveitam da imagem e da voz de figuras públicas, como cortes de podcasts, para transmitir uma falsa legitimidade às suas fraudes, como jogos online, plataformas falsas de empregos home office e, até mesmo, plataformas de aposta.
Saiba Mais
“Os criminosos gravam os cortes de podcasts e utilizam a IA para criar um áudio com base na voz da celebridade, como se elas estivessem promovendo o formato de golpe e usam as ferramentas de anúncios pagos das redes sociais para promover o cadastro nesses sites fraudulentos”, explica Wanderson Castilho, perito em crimes digitais e CEO da Enetsec. Anitta, Neymar, César Tralli e, recentemente, Whindersson Nunes são alguns dos nomes que tiveram suas imagens adulteradas.
Como saber se um vídeo é deepfake?
Identificar vídeos de deepfake pode ser um desafio, mas, segundo o especialista, algumas dicas podem ajudar a reconhecer quando o vídeo é falso. “Primeiro, observe o movimento dos olhos e piscadas, já que esse tipo de vídeo falso muitas vezes falha em replicar movimentos naturais”, diz Wanderson Castilho.
Segundo ele, as expressões faciais podem parecer rígidas ou não naturais, e a sincronização labial pode não corresponder perfeitamente ao áudio. “É importante também verificar a iluminação, que pode parecer irrealista e a textura da pele, que pode parecer excessivamente lisa ou brilhante”, completa o especialista.
O perito digital também explica que o áudio pode parecer fora de sincronia, formal demais ou num tom acima do que a persona do vídeo costuma se comunicar e, além disso, pede para o usuário se atentar ao movimento do corpo que pode ter inconsistências sutis. “Verificando estas informações, o usuário consegue tornar a sua vida nas redes ainda mais segura”, finaliza.
Por Fernanda Cezar
Saiba Mais
- Mundo PIB da Argentina cai 5,1% no primeiro trimestre de 2024
- Mundo Biden está ‘consternado’ por tentativa de homicídio de criança palestino-americana
- Mundo Conheça os 12 filhos e herdeiros de Elon Musk
- Mundo Quem é Julian Assange, fundador do WikiLeaks libertado da prisão no Reino Unido após fazer acordo com os EUA
- Mundo O empresário que salvou a FedEx da falência apostando tudo que tinha em cassinos de Las Vegas
- Mundo O que está em jogo na eleição do Reino Unido
- Mundo O drama dos moradores de Gaza: ‘Tenho dinheiro no banco mas não consigo comprar pão para meus filhos’
- Mundo Eleição nos EUA: como idade vai estar no centro de 1º debate entre Trump e Biden
- Mundo Sonda chinesa retorna à Terra com amostra do lado oculto da Lua
Deixe um comentário