Las estafas con inteligencia artificial crecen: así clonan su voz y su rostro para robarle dinero

Con solo tres segundos de audio y una fotografía de sus redes sociales, los delincuentes pueden suplantar su identidad y engañar a sus familiares. El FBI y expertos en ciberseguridad advierten que estas estafas ya operan en México y la frontera

Imagínese recibir una llamada de su hijo. Reconoce perfectamente su voz. Le dice que tuvo un accidente, que atropelló a alguien y necesita dinero urgente para pagar una fianza. Usted actúa de inmediato. Transfiere el dinero. Y solo después descubre que su hijo jamás llamó: era una inteligencia artificial imitando su voz con una grabación de tres segundos obtenida de un video en redes sociales.

Esto no es ciencia ficción. Es una estafa real, documentada en Estados Unidos, Europa y América Latina, y que crece de manera acelerada en 2026. El Informe Internacional sobre Seguridad de la IA de este año advirtió que las herramientas para clonar voces y rostros son gratuitas, no requieren conocimientos técnicos y pueden usarse de forma anónima. Cualquier persona con un teléfono y acceso a internet puede convertirse en un estafador sofisticado.

El fraude en números
IndicadorDato
Audio necesario para clonar una vozSolo 3 segundos
Adultos que no sabían que existía esta estafa46% según encuesta global
Víctimas de clonación de voz que perdieron dinero77% de quienes recibieron el audio falso
Pérdida típica por víctimaEntre 500 y 3,000 dólares (hasta 15,000 en casos extremos)
Pérdidas globales por estafas con criptomonedas e IA (2025)14,000 millones de dólares (Chainalysis)
Rentabilidad vs fraude tradicionalLas estafas con IA son 4.5 veces más rentables
Personas que no pueden distinguir voz real de clonada70% según estudio de McAfee
Adultos que comparten datos de voz en línea semanalmente53%
Cómo funciona la estafa paso a paso

El proceso es más sencillo de lo que parece. En primer lugar, el delincuente obtiene una muestra de voz de la víctima o de algún familiar, ya sea de un video en YouTube, una historia de Instagram, un audio de WhatsApp o incluso grabando unos segundos durante una llamada telefónica. Con ese material, sube el audio a una herramienta de clonación disponible en internet, muchas de ellas gratuitas, y en minutos genera una voz artificial casi idéntica a la original.

Después viene el engaño. El estafador llama a un familiar de la persona cuya voz clonó y usa ese audio para simular una emergencia: un accidente, un arresto, un secuestro o una hospitalización. El mensaje siempre transmite urgencia para que la víctima actúe rápido y no tenga tiempo de verificar. Luego pide transferencia por aplicaciones bancarias, criptomonedas o cajeros automáticos. En algunos casos, un cómplice se hace pasar por abogado, médico o policía para reforzar el engaño.

También pueden copiar su rostro

La clonación no se limita a la voz. Con una sola fotografía de perfil de LinkedIn, Instagram o Facebook, herramientas de inteligencia artificial pueden generar un video deepfake en el que su cara dice cualquier cosa que el delincuente programe. Expertos en ciberseguridad de la empresa Identy.io advirtieron que estos sistemas ya son capaces de replicar voz, rostro y hasta patrones biométricos con solo unos segundos de material.

Los modelos más recientes eliminan los errores visuales que antes delataban un deepfake, como la falta de sincronización labial o el parpadeo poco natural. Hoy en día, detectar un video falso con los ojos es cada vez más difícil, incluso para expertos. Los bancos y aseguradoras ya incorporan sistemas de detección de contenido sintético en sus plataformas digitales, pero la mayoría de los ciudadanos todavía no cuenta con esa protección.

Casos reales documentados

En Los Ángeles, un hombre llamado Anthony perdió 25,000 dólares después de recibir una llamada que sonaba exactamente como su hijo. Le dijeron que el joven había atropellado a una mujer embarazada y necesitaba pagar una fianza. Luego llamó otro hombre fingiendo ser abogado. Anthony transfirió el dinero antes de que su hija le advirtiera que podía ser una estafa. Para entonces ya era tarde.

En Europa, estafadores clonaron la voz del director ejecutivo de una empresa y mediante una llamada telefónica ordenaron a un empleado transferir 220,000 euros a una cuenta externa. El empleado obedeció convencido de que hablaba con su jefe. También se han documentado casos de padres a quienes llaman con la voz clonada de sus hijos afirmando haber sido secuestrados, exigiéndoles rescate de inmediato.

Cómo protegerse: guía práctica
MedidaPor qué funciona
Cuelgue y llame directamente al número conocido de su familiarVerifica si la llamada original fue real en segundos
Establezca una palabra clave secreta con su familiaSi la voz no sabe la palabra, es fraude
Nunca envíe dinero por presión telefónicaLas emergencias reales no requieren transferencias instantáneas
Limite los audios y videos públicos de su vozMenos material disponible = menos riesgo de clonación
Desconfíe si piden criptomonedas o cajeros ATMEs la señal más clara de estafa
No conteste llamadas de números desconocidosEl silencio inicial sirve para grabar su voz
Alerte a sus adultos mayoresSon el principal blanco por confiar más en llamadas telefónicas
Ángulo fronterizo

La región fronteriza Matamoros-Brownsville es especialmente vulnerable a este tipo de fraudes por una razón concreta: miles de familias tienen integrantes a ambos lados de la frontera, y es común recibir llamadas de emergencia de familiares en Estados Unidos pidiendo ayuda económica urgente. Esa dinámica familiar transfronteriza es exactamente el escenario que los estafadores buscan explotar.

Además, el uso masivo de WhatsApp en la frontera facilita la obtención de audios de voz. Cada nota de voz que usted envía, cada video que publica en sus estados, cada historia donde aparece hablando, es material potencial para un clon. La recomendación de los expertos es clara: limite lo que comparte en público, establezca una palabra clave con su familia y nunca transfiera dinero por una llamada sin verificar primero por otro canal.