Luciano Oliveira - [email protected]

Os criminosos costumam acessar as redes sociais das vítimas para coletar áudios (Foto: Tero Vesalainen/Shutterstock.com)

Recebeu ligação com voz idêntica a de um parente seu? Pode ser o novo golpe que usa IA

A Polícia Civil de Alagoas emitiu um alerta sobre um golpe que vem ganhando espaço no país.

A nova prática criminosa envolve o uso de Inteligência Artificial (IA) para clonar a voz das vítimas e aplicar golpes em amigos e familiares, solicitando transferências bancárias e dados pessoais.

De acordo com a polícia, os criminosos costumam acessar as redes sociais das vítimas para coletar áudios. Com a ajuda da IA, conseguem reproduzir a voz com alto nível de semelhança.

Um vídeo ou gravação de apenas três segundos já é suficiente para gerar falas mais longas, o que facilita a criação de áudios falsos que parecem autênticos.

Com a voz clonada, os golpistas entram em contato com pessoas próximas da vítima. O mais comum é pedirem dinheiro emprestado ou solicitarem informações pessoais.

Como a voz soa igual à da pessoa conhecida, muitos acreditam estar ajudando o familiar ou amigo de verdade e acabam transferindo valores ou entregando dados sensíveis sem perceber que se trata de um golpe. Com informações da Gazeta SP.

Print Friendly, PDF & Email

Compartilhe:

guest

0 Comentários
Inline Feedbacks
View all comments

publicidade