04/10/2025 06:14:11

Geral
23/09/2024 20:00:00

Banco alerta: milhões podem ser alvos de golpes de clonagem de voz de IA

“Milhões” de pessoas podem ser vítimas de golpes que usam inteligência artificial para clonar suas vozes, alertou um banco britânico.

Banco alerta: milhões podem ser alvos de golpes de clonagem de voz de IA

Fonte Agora Notícias Brasil

O Starling Bank, um credor exclusivamente online, disse que os fraudadores são capazes de usar IA para reproduzir a voz de uma pessoa a partir de apenas três segundos de áudio encontrado, por exemplo, em um vídeo que a pessoa postou online. Os fraudadores podem então identificar os amigos e familiares da pessoa e usar a voz clonada por IA para marcar uma ligação para pedir dinheiro.

Esses tipos de golpes têm o potencial de “prender milhões de pessoas”, disse o Starling Bank em comunicado à imprensa na quarta-feira.


Eles já tocaram centenas. De acordo com uma pesquisa com mais de 3.000 adultos que o banco conduziu com a Mortar Research no mês passado, mais de um quarto dos entrevistados disseram ter sido alvo de um golpe de clonagem de IA nos últimos 12 meses.


A pesquisa também mostrou que 46% dos entrevistados não sabiam da existência de golpes desse tipo e 8% enviariam tanto dinheiro quanto um amigo ou familiar pedisse, mesmo que a ligação lhes parecesse estranha.


“As pessoas publicam regularmente conteúdo online com gravações de suas vozes, sem nunca perceberem que isso as torna mais vulneráveis ??a fraudadores”, disse Lisa Grahame, chefe de segurança da informação do Starling Bank, no comunicado à imprensa.
O banco incentiva as pessoas a concordarem com seus entes queridos sobre uma “frase secreta” – uma frase simples, aleatória e fácil de lembrar, diferente de outras senhas – que pode ser usada para verificar sua identidade por telefone.


O mecanismo recomenda não compartilhar a frase segura por meio de mensagem de texto, o que pode facilitar a visualização dos fraudadores, mas se for compartilhada dessa forma, a mensagem deverá ser excluída assim que a outra pessoa a visualizar. À medida que a IA se torna mais hábil em imitar a voz humana, crescem as preocupações sobre o seu potencial para prejudicar as pessoas, por exemplo, ajudando os criminosos a aceder às suas contas bancárias e a espalhar desinformação.


No início deste ano, a OpenAI, criadora do gerador de chatbot ChatGPT, revelou sua ferramenta de reprodução de voz, Voice Engine, mas não a disponibilizou publicamente na época, citando “o potencial de abuso de voz sintética”.