Login

Esqueci minha senha

Não tem conta? Acesse e saiba como!

Atualize seus dados

Pernambuco
arrow-icon
  • gps-icon Pernambuco
  • gps-icon Espírito Santo
Pernambuco
arrow-icon
  • gps-icon Pernambuco
  • gps-icon Espírito Santo
Espírito Santo
arrow-icon
  • gps-icon Pernambuco
  • gps-icon Espírito Santo
Espírito Santo
arrow-icon
  • gps-icon Pernambuco
  • gps-icon Espírito Santo

Mundo Digital

Mundo Digital

Colunista

Eduardo Pinheiro

Clonagem de voz vai se tornar o golpe da moda em pouco tempo

| 30/05/2021, 09:19 09:19 h | Atualizado em 30/05/2021, 09:25

Se já não bastassem as dezenas de milhares de golpes que são praticados todos os dias, por meio de clonagem de perfis de redes sociais e de contas do WhatsApp, em breve vem aí um tipo de golpe em que o criminoso utiliza a clonagem da voz de uma pessoa para enganar seus parentes e amigos e tirar proveito financeiro.

A WaveNet, uma empresa do grupo Google, desenvolveu uma tecnologia baseada em inteligência artificial que é capaz de copiar o timbre e o jeito de falar de uma pessoa.

O sistema analisa a voz a ser clonada, gerando um modelo matemático. Este modelo é aplicado a um sistema de geração de texto-para-voz, que pode então reproduzir qualquer texto usando uma cópia da voz original. 

Inicialmente, nos primeiros modelos da tecnologia, era preciso alimentar o banco sintetizador com centenas de megabytes de dados da voz para se obter o padrão do timbre da voz de uma pessoa.

Recentemente, a tecnologia foi aprimorada e agora, com apenas 5 segundos da voz de uma pessoa, já é possível extrair seu timbre e reproduzi-la associada a um texto qualquer.

Aqui no Brasil, o projeto chamado “Mr. Falante”, uma parceria da Universidade Federal de Goiás com a CyberLabs, já conseguiu resultados surpreendentes com a clonagem da voz em língua portuguesa.
Essa tecnologia, nas mãos de pessoas mal-intencionadas e de bandidos, terá um potencial destrutivo e criminoso muito grande.

Hoje os criminosos se baseiam em se passar por outras pessoas, em mensagens de texto. A dica de segurança para evitar esse golpe é não confiar em mensagens de texto e solicitações de dinheiro ou de empréstimos de parentes e amigos feitas online e sempre telefonar para reconhecer a voz do solicitante.

Com a nova tecnologia de clonagem de voz, essa dica de segurança se torna ineficaz. O criminoso conseguirá sintetizar a voz da pessoa, já que pode ter acesso a algum áudio da vítima, o que hoje em dia é muito fácil, seja em lives, vídeos de redes sociais ou áudios de WhatsApp.

Com isso, conseguirá enviar áudios para parentes ou amigos, solicitando transferências bancárias e outras informações valiosas da vítima, além de adicionar credibilidade ao golpe.

Daqui a alguns anos, todo mundo vai ter que entender um pouco de tecnologia para não cair em golpes que, cada vez mais, fazem uso das últimas novidades na área e dificultam a sua identificação.

Ficará mais difícil identificar o que é fake e o que é o ser humano. Assim, vamos ter que fazer uso da própria tecnologia para conseguir identificar se um áudio ou vídeo é autêntico ou se houve alguma montagem ou modificação, com uso da inteligência artificial.

Os sentidos humanos (audição e visão) são bastante limitados e, certamente, precisaremos de todo um aparato tecnológico para identificar se, de fato, estamos conversando com uma pessoa, um robô ou uma voz sintetizada. Tempos estranhos nos aguardam!

SUGERIMOS PARA VOCÊ: