Extorsiones con IA y voces clonadas: Cuidado con las estafas en WhatsApp

Los delincuentes están utilizando inteligencia artificial (IA) para clonar voces y engañar a las víctimas a través de mensajes de audio en WhatsApp.

Estos mensajes suelen provenir de números de teléfono conocidos y pueden sonar muy convincentes, pero se trata de estafas.

¿Cómo funcionan estas estafas?

Los ciberdelincuentes utilizan IA para crear voces falsas que suenan como personas reales, generalmente familiares o amigos.

Luego envían mensajes de audio a las víctimas, haciéndose pasar por estas personas y pidiendo dinero.

Las estafas suelen ser muy específicas y convincentes, y las víctimas pueden creer que están ayudando a un ser querido en problemas.

¿Cómo protegerse?

Hay varias cosas que puedes hacer para protegerte de estas estafas:

¿Qué hacer si eres víctima de una estafa?

Si eres víctima de una estafa de este tipo, es importante que tomes las siguientes medidas:

Estas estafas son cada vez más comunes, por lo que es importante estar atento a ellas.

Siguiendo estos consejos, puedes protegerte y evitar ser víctima de una estafa.

Fuentes: