Extorsiones con IA y voces clonadas: Cuidado con las estafas en WhatsApp

Los delincuentes están utilizando inteligencia artificial (IA) para clonar voces y engañar a las víctimas a través de mensajes de audio en WhatsApp.

Estos mensajes suelen provenir de números de teléfono conocidos y pueden sonar muy convincentes, pero se trata de estafas.

¿Cómo funcionan estas estafas?

Los ciberdelincuentes utilizan IA para crear voces falsas que suenan como personas reales, generalmente familiares o amigos.

Luego envían mensajes de audio a las víctimas, haciéndose pasar por estas personas y pidiendo dinero.

Las estafas suelen ser muy específicas y convincentes, y las víctimas pueden creer que están ayudando a un ser querido en problemas.

¿Cómo protegerse?

Hay varias cosas que puedes hacer para protegerte de estas estafas:

  • Ten cuidado con los mensajes de audio de personas que piden dinero.
  • Verifica el número de teléfono del remitente y compáralo con el número de teléfono real de la persona.
  • Pregunta a la persona que te envió el mensaje información específica que solo ella sabría.
  • Si tienes alguna duda, comunícate con la persona directamente para verificar si realmente te envió el mensaje.

¿Qué hacer si eres víctima de una estafa?

Si eres víctima de una estafa de este tipo, es importante que tomes las siguientes medidas:

  • No envíes dinero a la persona que te envió el mensaje.
  • Denuncia la estafa a la policía.
  • Informa a tu banco o compañía de tarjeta de crédito sobre la estafa.

Estas estafas son cada vez más comunes, por lo que es importante estar atento a ellas.

Siguiendo estos consejos, puedes protegerte y evitar ser víctima de una estafa.

Fuentes: