PocketOption

Falsificações de voz são um fenômeno perigoso que está se tornando cada vez mais comum
(foto: Domínio Público CC0)

Num esforço para combater fraudes, imitando as vozes de pessoas reais para fins criminosos e materiais comprometedores, os desenvolvedores criaram um novo sistema que protege contra os chamados profundo falso.

As tecnologias de falsificação de voz que usam inteligência artificial são uma ferramenta bastante perigosa – elas são capazes de reproduzir de forma confiável uma voz humana, mesmo a partir de um pequeno fragmento. O algoritmo AntiFake proposto por um cientista americano pode impedir a criação de tais falsificações, informou o New Atlas.

Deepfake é um fenômeno bastante perigoso. Os falsificadores de votos podem usá-lo para atribuir a um artista ou político famoso uma declaração que ele nunca fez. Há também precedentes em que o agressor liga para a vítima e, na voz de uma amiga, pede que ela transfira dinheiro com urgência em relação a alguma situação de emergência.

Ning Zhang, professor assistente de ciência da computação e engenharia na Universidade de Washington em St. Louis, oferece uma tecnologia que torna muito mais difícil falsificar uma voz. O princípio de funcionamento do algoritmo AntiFake se resume a criar condições nas quais se torna muito mais difícil para o sistema de IA ler as principais características da voz ao gravar uma conversa de uma pessoa real.

“A ferramenta utiliza uma técnica de IA que foi originalmente aplicada por cibercriminosos, mas agora a voltamos contra eles. Distorcemos levemente o sinal de áudio gravado, criando interferência apenas o suficiente para que soe igual para um humano, mas soe completamente diferente para a IA”, comentou o autor do desenvolvimento, Ning Zhang.

Isso significa que se você tentar criar um deepfake baseado em uma gravação modificada dessa forma, a voz gerada pela IA não será semelhante à voz humana na amostra. Os testes mostram que o algoritmo AntiFake é 95% eficaz na prevenção da síntese de deep fakes convincentes.

“Não sei o que acontecerá a seguir com as tecnologias de IA de voz – novas ferramentas e funções estão sendo constantemente desenvolvidas, mas ainda acredito que nossa estratégia de usar a tecnologia do inimigo contra si mesma permanecerá eficaz”, está convencido o autor do projeto .

Atualizado em by
Proteção Deepfake com a arma do trapaceiro
Proteção Deepfake com a arma do trapaceiro
Proteção Deepfake com a arma do trapaceiro
Registro Rápido

Corretora regulamentada. Conta Demo com $10.000 em fundos virtuais Grátis!

100%
Pontuação de Confiança