Las 10 Principales Estafas de Phishing con Deepfake a las que Debes Prestar Atención
La tecnología deepfake ha dado a los ciberdelincuentes una nueva y poderosa arma. Desde llamadas de voz generadas por IA que suplantan a tu director ejecutivo hasta mensajes de vídeo hiperrealistas de falsos representantes bancarios, estas estafas son casi imposibles de detectar a simple vista.
¿Qué Son las Estafas de Phishing con Deepfake?
El phishing con deepfake combina la inteligencia artificial con la ingeniería social tradicional para crear suplantaciones de identidad altamente convincentes. A diferencia de los correos de phishing antiguos plagados de errores ortográficos, las estafas con deepfake utilizan audio, vídeo o imágenes generados por IA que imitan perfectamente a personas reales. Los atacantes ahora pueden clonar una voz a partir de solo unos segundos de audio, generar vídeos realistas de una persona diciendo cosas que nunca dijo y crear fotos de perfil falsas que engañan incluso a los observadores más cuidadosos.
Estas no son amenazas teóricas: los ataques de phishing con deepfake aumentaron más de un 3000 % entre 2023 y 2025, según múltiples informes de ciberseguridad.
Las Estafas con Deepfake Más Peligrosas en la Actualidad
La estafa de la llamada de voz del director ejecutivo encabeza la lista: los atacantes clonan la voz de un ejecutivo utilizando grabaciones disponibles públicamente y llaman a los empleados solicitando transferencias bancarias urgentes. En segundo lugar está la estafa de verificación por vídeo falso, donde los delincuentes envían mensajes de vídeo deepfake haciéndose pasar por tu banco y pidiéndote que confirmes los datos de tu cuenta. En tercer lugar, agentes de atención al cliente generados por IA contactan a las víctimas a través de videochat.
Otras estafas frecuentes incluyen estafas de entrevistas de trabajo con deepfake donde falsos reclutadores roban datos personales, llamadas de emergencia con la voz clonada de familiares por IA, falsas videollamadas de funcionarios gubernamentales exigiendo pagos inmediatos, fraude de identidad sintética usando rostros generados por IA, estafas de intereses románticos con deepfake en plataformas de citas, estafas de inversión con falsos respaldos de celebridades y vídeos de presentadores de noticias generados por IA que promueven esquemas fraudulentos.
Cómo Detectar un Ataque con Deepfake
A pesar de su sofisticación, las estafas con deepfake dejan pistas. Presta atención a movimientos oculares o patrones de parpadeo poco naturales en el vídeo, ligeros desajustes entre audio y vídeo, urgencia o presión inusuales para actuar de inmediato, solicitudes de información confidencial a través de canales inesperados y ofertas demasiado buenas para ser verdad de fuentes aparentemente legítimas. Siempre verifica las solicitudes inesperadas a través de un canal de comunicación separado: si tu director ejecutivo llama pidiendo una transferencia bancaria, cuelga y llámalo de vuelta a su número conocido.
Nunca confíes en un solo punto de contacto para solicitudes de alto riesgo.
Cómo Te Protege Sorinify
Aunque los deepfakes apuntan a múltiples canales, muchas de estas estafas terminan dirigiendo a las víctimas a sitios web de phishing para recopilar credenciales o información de pago. Sorinify analiza estas páginas de destino en el servidor antes de que se carguen en tu navegador, detectando páginas de inicio de sesión falsas, suplantación de marcas y patrones de dominios sospechosos en los que se apoyan los estafadores de deepfake. Nuestros modelos de IA están entrenados con millones de sitios web para detectar la infraestructura detrás de estas estafas, incluso cuando la ingeniería social es convincentemente humana.