Vídeos falsos criados por inteligência artificial invadem as redes sociais
Uma das estratégias mais comuns dos golpistas envolve uma tecnologia que permite manipular rostos e vozes
Escute essa reportagem

Pegando carona nos avanços da tecnologia, criminosos estão divulgando vídeos falsos nas redes sociais criados por inteligência artificial com a finalidade de enganar vítimas e obter vantagens ilícitas.
Uma das estratégias mais comuns envolve o uso de deepfakes – tecnologia que permite manipular rostos e vozes de figuras públicas para que pareçam dizer algo que nunca disseram, promovendo, por exemplo, anúncios falsos e campanhas fraudulentas.
Esse golpe se aproveita da confiança que muitas pessoas depositam em figuras públicas e na aparência profissional dos vídeos jornalísticos. A edição sofisticada e o uso de IA tornam difícil para o público identificar a fraude à primeira vista, aumentando a eficácia da enganação.
Vitor Estevão Silva Souza, professor do Departamento de Informática do Centro Tecnológico da Universidade Federal do Espírito Santo (Ufes), disse que da mesma forma que as inovações são ferramentas úteis e de uso produtivo, elas também são utilizadas para aplicar golpes, a convencer as pessoas a transferir dinheiro para quem não deve, por exemplo.
No ES, o deputado estadual Lucas Polese foi vítima de vídeos falsos criados por inteligência artificial.
“Eles pegaram um vídeo meu que foi gravado em parceria com o deputado federal Nikolas Ferreira e editaram a nossa fala com inteligência artificial. Eles mudaram completamente o teor da nossa fala. Era um vídeo de denúncia expondo um relatório sobre órgãos e estados e eles mudaram para um vídeo pedindo pagamento de taxa, falando de um benefício que eles iam devolver”.
Além de denunciar o caso à policia e plataformas, o parlamentar está usando as suas redes sociais para alertar sobre o golpe.
Titular da Delegacia Especializada de Repressão aos Crimes Cibernéticos (DRCC), delegado Brenno Andrade citou um caso de uma adolescente que tirou uma foto normal e os criminosos fizeram uma montagem com IA em que ela aparecia nua.
O caso foi denunciado neste ano, mas detalhes não foram revelados, pois segue sob investigação.
Quem for vítima, Brenno Andrade orienta que procure a polícia para denunciar. As provas são importantes, como prints, números que estão divulgados e URL (endereço único que identifica um perfil de usuário) das redes sociais.
Falsa notícia
É falso um vídeo que circula pelas redes sociais mostrando o deputado federal Nikolas Ferreira (PL-MG) e o jornalista e apresentador da TV Globo César Tralli (foto) divulgando uma suposta indenização do governo federal que poderia chegar a R$ 7 mil.
No vídeo, Tralli parece noticiar a possibilidade de saque da indenização, ao lado de imagens do site do governo, e Nikolas confirma a alegação.
Na gravação, ambos orientam o usuário a clicar em “saiba mais” para consultar os valores disponíveis para saque.
Os golpes

Tipos de deepfake
Por vídeo
É o tipo mais conhecido de deepfake. No caso, o rosto de uma ou mais pessoas é substituído pelo de outra, imitando aparência, gestos e movimentos.
Assim, a pessoa clonada passa a reproduzir as falas e movimentos realizados por um ator, criando uma situação ou discurso que nunca aconteceu, a exemplo do que os criminosos fizeram com o deputado estadual Lucas Polese e o deputado federal Nikolas Ferreira.
Como identificar
Ausência de movimentos faciais que deveriam ser naturais, como o piscar dos olhos, movimentos corporais rígidos, ausência de uma marca conhecida, como tatuagem ou sinal; alterações no sotaque ou na entonação da voz; falta de sincronia entre o áudio e o movimento dos lábios.
Por movimento corporal
Além de trocar rostos, o deepfake também manipula movimentos corporais inteiros, sincronizando expressões faciais e gestos para combinar com a aparência e os movimentos da pessoa falsificada.
Isso é usado para criar vídeos altamente realistas, como dublês digitais em filmes ou vídeos falsos em redes sociais.
Como identificar
Movimentos corporais rígidos e que aparentam ser mecânicos ou desconectados da expressão facial; desalinhamento com o cenário, incluindo sombras e objetos posicionados ao redor, e outros.
Por áudio
utilizam a inteligência artificial para replicar a voz de alguém. A tecnologia analisa gravações da voz da pessoa e depois sintetiza falas com o mesmo tom, ritmo e entonação, criando mensagens de voz falsas.
Como identificar
Entonação inadequada na voz, tom monótono ou ligeiramente robótico, interrupções abruptas de palavras, frases ou ideias, entre outros.
Por imagem
Esse tipo envolve a substituição ou alteração de rostos em imagens estáticas.
Existem duas variantes principais: face swap, que faz a troca completa de um rosto por outro, e face morphing, que combina características faciais de duas pessoas para criar um rosto híbrido, usado para manipulação de fotos.
Como identificar
Bordas mal ajustadas no rosto, especialmente perto do cabelo e do pescoço; texturas faciais que não combinam com o resto da pele, como manchas ou brilho fora do lugar.
Fonte: Serasa e Polícia Civil.
Análise: “Terreno fértil para criminosos”

“A internet sempre foi um terreno fértil para criminosos, mas agora, com a ascensão da inteligência artificial, os golpes atingiram um novo nível de sofisticação. No Brasil, fraudadores exploram uma legislação penal frouxa e utilizam deepfakes para criar áudios e vídeos falsos, enganando vítimas e instituições financeiras.
Fotos e vídeos, facilmente extraídos das redes sociais, alimentam essas farsas digitais, dando credibilidade a pedidos de dinheiro e falsas emergências.
Mesmo quando o conteúdo criminoso é removido, ele ressurge em novos domínios, perpetuando um ciclo sem fim.
O jogo de gato e rato entre fraudadores e a justiça digital continua, e, no meio disso, as vítimas seguem pagando o preço. Ressarcimento aos valores perdidos não passa de uma ilusão para as vítimas. Até quando?”
MATÉRIAS RELACIONADAS:




Comentários