O Starling Bank, do Reino Unido, fez mais um alerta sobre os perigos do mau uso da inteligência artificial.
Segundo o banco britânico, milhões de pessoas podem ser vítimas de golpes que estão usando IA para clonar vozes.
Uso da IA para clonar vozes deixa golpe mais crível
- Em comunicado, o Starling Bank disse que os golpistas são capazes de usar a IA para replicar a voz de uma pessoa a partir de apenas três segundos de áudio.
- Para isso, eles só precisam de um vídeo que este indivíduo tenha postado na internet.
- Com este material em mãos, eles identificam os amigos e familiares da pessoa e usam a voz clonada para fazer uma ligação e pedir dinheiro.
- A técnica é uma evolução dos golpes mais comuns, que se passam por uma pessoa para pedir transferências por mensagens.
- O uso da voz clonada, no entanto, torna a ação muito mais perigosa e aumenta as chances de sucesso dos criminosos.
Muitas pessoas já foram lesadas por este tipo de golpe
De acordo com uma pesquisa com mais de três mil pessoas que o banco realizou com a Mortar Research no mês passado, mais de um quarto dos entrevistados disseram ter sido alvo de um golpe de clonagem de voz de IA nos últimos 12 meses.
A pesquisa também mostrou que 46% dos entrevistados não sabiam que tais golpes existiam e que 8% enviariam o dinheiro pedido por um amigo ou membro da família, mesmo que achassem a ligação estranha.