La Amenaza de los Médicos Deepfake en las Redes Sociales
En la era digital, la inteligencia artificial (IA) está revolucionando la forma en que interactuamos con la información. Sin embargo, esta tecnología también está siendo utilizada para fines nefastos. Recientemente, se están detectando campañas de desinformación en plataformas como TikTok e Instagram, donde avatares creados con IA simulan ser profesionales de la salud. Estos «médicos deepfake» están promocionando tratamientos y suplementos sin respaldo científico, lo que representa un grave riesgo para la salud pública.

¿Cómo Operan Estos Médicos Falsos?
Según informes de Clarín, estas campañas se caracterizan por la creación de videos cortos en los que un avatar con apariencia humana se presenta como un médico con años de experiencia. La puesta en escena es cuidadosamente elaborada: la estética es profesional, la voz suena convincente y el contenido se presenta como una recomendación médica legítima. No obstante, todo es una farsa. Estos videos buscan inducir a los usuarios a comprar productos, algunos de los cuales pueden ser peligrosos, haciéndolos creer que forman parte de un tratamiento médico real.
ESET Latinoamérica, una compañía especializada en ciberseguridad, ha alertado sobre esta creciente amenaza. Camilo Gutiérrez Amaya, Jefe del Laboratorio de Investigación de ESET Latinoamérica, explica que «se valen de una estrategia de marketing desleal en la que intentan generar una validación falsa de supuestos especialistas para hacer creer que el mensaje está dado por una persona con conocimientos del tema» (Clarín, s.f.).

El Gancho del «Extracto Natural» y Otros Engaños
Un ejemplo alarmante detectado por ESET involucra a una supuesta médica que recomienda un «extracto natural» como una alternativa más efectiva que Ozempic, un medicamento popular para la diabetes tipo 2. El enlace del video dirige a los usuarios a una página de Amazon donde se venden «gotas de relax» sin relación alguna con el medicamento mencionado. Esta estrategia combina el engaño tecnológico con la presión emocional y el marketing agresivo, aumentando el riesgo de que las personas caigan en la trampa.
Redes Sociales: Un Terreno Fértil para la Desinformación
Las redes sociales de videos cortos, como TikTok e Instagram, son el caldo de cultivo perfecto para estas campañas de desinformación. ESET ha identificado más de 20 cuentas que utilizan este formato, todas con un patrón similar: avatares profesionales, un relato convincente y un producto «milagroso» detrás. Muchos de estos avatares son generados por programas que permiten a cualquier persona convertirse en «actor IA», grabando clips y recibiendo dinero por los videos generados con su imagen.
Aunque el uso de este tipo de contenido a menudo viola los términos y condiciones de las plataformas, el problema persiste debido a la rapidez con la que se puede producir y difundir este material. «Este tipo de videos no solo puede inducir a errores de salud, sino que también representan un riesgo mayor en contextos de desinformación masiva», advierte ESET (Clarín, s.f.).
El Peligro de los Deepfakes en el Ámbito Corporativo y Político
La amenaza de los deepfakes no se limita al ámbito de la salud. Palo Alto Networks ha identificado un crecimiento constante en el uso de deepfakes en ataques dirigidos, incluso en contextos corporativos y políticos. Según un informe de su unidad especializada en amenazas, Unit 42, ya se están registrando casos donde se utilizan voces clonadas o videos falsos de ejecutivos para autorizar transferencias bancarias o influir en decisiones estratégicas dentro de organizaciones.
«Los deepfakes están migrando del espacio público al privado, con técnicas cada vez más difíciles de detectar. Esta evolución plantea un riesgo creciente para empresas y gobiernos que todavía no cuentan con protocolos específicos para validar la autenticidad de audios o videos», asegura el informe de la compañía (Clarín, s.f.).
¿Cómo Detectar un Deepfake Médico? Consejos Prácticos
En esta era de desinformación viral, es crucial saber identificar cuándo estamos ante un contenido falsificado. ESET recomienda prestar atención a las siguientes señales:
- Desincronización de labios y voz: El audio no coincide exactamente con el movimiento de la boca.
- Expresiones faciales rígidas o poco naturales: Los gestos no se ven fluidos o parecen forzados.
- Artefactos visuales: Bordes borrosos, cortes mal editados o iluminación que cambia sin lógica.
- Voz artificial: Tono monótono, robótico o sin inflexiones emocionales.
- Cuentas recientes y sin historial: Perfiles nuevos con pocos seguidores o sin publicaciones anteriores.
- Lenguaje sensacionalista: Frases como «cura milagrosa», «lo que los médicos no quieren que sepas» o «100% garantizado».
- Falta de evidencia científica: Afirmaciones sin respaldo o referencias a estudios poco confiables.
- Urgencia para comprar: Mensajes que presionan como «oferta por tiempo limitado» o «últimas unidades».
La Importancia de la Verificación y la Denuncia
«Si encontramos este tipo de contenidos, es vital no compartir o creer antes de verificar el origen o propósito de las afirmaciones de los videos. Además, y en el caso de identificar un contenido engañoso, debemos denunciar la publicación ante la red social que estemos usando», enfatiza Gutiérrez Amaya (Clarín, s.f.).
En la era de la inteligencia artificial, la desinformación se está volviendo más sofisticada que nunca. Ya no se trata de bots torpes o cuentas falsas mal armadas, sino de contenidos con rostro humano, tono profesional y apariencia confiable. El desafío es no dejarse engañar y fomentar una cultura de verificación y denuncia ante la proliferación de deepfakes.