Você já imaginou receber uma ligação de um familiar ou amigo pedindo dinheiro emprestado com urgência? E se a voz fosse idêntica à da pessoa que você conhece?
Pois é isso que está acontecendo com algumas vítimas de um golpe que usa inteligência artificial (IA) para clonar a voz de alguém e enganar os desavisados.
Foi o que aconteceu com o pai do influencer Dario Centurione, do Almanaque SOS, que contou em suas redes sociais que teve sua voz clonada por criminosos que ligaram para seu pai e pediram R$ 600 via Pix. O pai de Dario acreditou que era o filho e fez a transferência, sem saber que se tratava de uma fraude.
Mas como é possível copiar a voz de alguém com IA? Segundo especialistas, existem ferramentas e aplicativos que permitem usar vídeos e áudios na internet como base para a criação de novas frases com a voz parecida. A técnica é chamada de deepfake, que consiste em manipular imagens e sons com ajuda de algoritmos.
Para isso, é preciso ter um conhecimento avançado de programação, mas também há serviços online que simplificam o processo. Quanto melhor a qualidade do áudio ou da imagem original, melhor o resultado da manipulação. Por isso, pessoas que têm muitos vídeos na internet, como influenciadores e celebridades, são mais vulneráveis ao golpe.
O golpe da voz clonada não é novo e já tem diversas ocorrências nos Estados Unidos, o que levou o órgão regulador do comércio no país a emitir um alerta. No Brasil, ainda não há dados oficiais sobre o número de casos, mas é preciso ficar atento e desconfiar de pedidos de dinheiro por telefone.
Uma dica é criar uma palavra-chave com os familiares e amigos para confirmar a identidade em situações suspeitas. Outra é nunca fazer transferências bancárias sem antes contatar a pessoa ou empresa solicitante por outro meio. E, claro, denunciar qualquer tentativa de golpe às autoridades competentes.
Gosta do nosso conteúdo?
Este texto foi gerado com o auxílio de ferramentas de IA. Viu algum erro? Avise!