InícioSegurançaGolpistas estão usando IA para clonar vozes de parentes

Golpistas estão usando IA para clonar vozes de parentes

spot_img

Os golpes através de telefone estão ficando mais criativos, tornando mais difícil para as pessoas comuns distinguir o que é real do falso, graças a IA (Inteligência Artificial), o alerta foi um vídeo recente do TikTok de uma mulher demonstra as novas manhas dos vigaristas para enganar inocentes, os resultados podem ser absolutamente dolorosos no bolso e podem gerar danos psicológicos.

Brooke Bush (@babybushwhacked) admite: “Então, pareço um desastre emocional agora porque tenho chorado nas últimas duas horas, porque pensei que meu irmão mais novo estava morto”.

No entanto, o raciocínio dela não foi uma paranóia aleatória: foi devido ao suposto uso de tecnologia de inteligência artificial (IA) por um golpista de telefone que enganou o avô dela fazendo ele acreditar que seu neto havia sofrido um acidente.

Bush afirma que a pessoa que ligou imitou a voz de seu irmão usando a máquina de IA. Chamaram o idoso.

Oh, estou prestes a sofrer um acidente de carro! Disse o autor da ligação antes que a ligação caísse.

Naturalmente, o avô da Bush ficou horrorizado e sem saber o que fazer. Ele ligou em pânico para a neta um momento depois, levando-a a presumir imediatamente o pior: ela havia perdido o irmão.

No TikTok, Bush lembra: “Comecei a dirigir, tentando encontrar sua localização, ele não atendia”.

Foi só depois que muito tempo se passou – e ela louca de procupação – que ela finalmente descobriu a realidade: usando a tecnologia de IA, um vigarista fingiu ser o irmão caçula dela.

No final das contas, era tudo um truque bem elaborado com propósito de assustar o avô e forçá-lo a enviar dinheiro para o estranho do outro lado da linha.

Bush continou explicando, uma segunda ligação para o avô afirmou que o irmão dela precisava de dinheiro para a fiança porque havia sido preso por matar alguém no acidente de automóvel.

Bush, lutando contra as lágrimas, diz: “Tudo por dinheiro, ele agiu como se fosse meu irmãozinho falando como se tivesse quase morrido.” Se você receber uma ligação de alguém que você conhece pedindo dinheiro, eles estão usando uma máquina de IA para imitar sua voz. Quão vil eles conseguem ser?

Bush espera alertar outras pessoas compartilhando sua história. Além disso, alguns dos comentários indicam que esta é uma nova abordagem já muito apreciada.

Uma pessoa compartilhou: “esta é a segunda pessoa aqui que disse que isso aconteceu com ela”.

Outra pessoa acrescentou: “isso está acontecendo com muitas pessoas”.

Outro usuário da rede social compartilhou: “Isso aconteceu com meu avô há alguns anos. Ligaram para ele e avisaram que meu primo foi pego bêbado (ele não bebe) e dirigindo e que precisava de dinheiro para fiança!”

Muitas pessoas ficaram chocadas com o fato de algo tão bem bolado pode ocorrer o tempo todo. Alguns se referiram a ele como “além do mal”, “diabólico” e “cruel”.

Houve outra pessoa que disse: “Isso é loucura.” Sinto muito que você teve que suportar isso. Canais de voz IA estão genuinamente enlouquecendo a todos.”

Outros tentaram oferecer alguns conselhos sobre o método mais eficiente para evitar algo assim.

“Minha família e eu criamos uma palavra-código caso ocorram circunstâncias como essa”, compartilhou um indivíduo. “Eles saberão que não é real se receberem uma ligação, mas não ouvirem essa palavra.”

Outro acrescentou: “é hora de todos nós termos palavras de segurança”.

spot_img

ÚLTIMAS NOTÍCIAS

hot news

Publicidade

ARTIGOS RELACIONADOS

DEIXE UM COMENTÁRIO

Por favor digite seu comentário!
Por favor, digite seu nome aqui