Prevenir ataques de fraude deepfake Página del artículo Los deepfakes son imágenes, vídeos y audios creados artificialmente y diseñados para emular características humanas reales. Los deepfakes utilizan una forma de inteligencia artificial (IA) llamada aprendizaje profundo. Los actores malintencionados pueden aprovechar la tecnología detrás de los deepfakes para cometer robo de identidad, chantaje y fraude. El tipo de deepfake más conocido es un vídeo de intercambio de rostros, que transpone los movimientos faciales de una persona a los rasgos de otra. Otro tipo de deepfake es la clonación de voz, que copia los patrones vocales únicos de una persona para recrear y alterar digitalmente su habla. Deepfakes en 2025: ¿Qué hay de nuevo? Las herramientas de video con IA ahora permiten a cualquiera generar clips realistas que parecen videos sociales, a menudo usando rostros escaneados o avatares tipo "cameo". Dado que la calidad visual y de audio puede ser alta, debería considerar los medios convincentes como... inconfirmado hasta que se demuestre lo contrario. El enfoque más seguro es verificar la fuente y contexto, no los píxeles. Técnicas de deepfake: Vishing deepfake, un tipo de amenaza de difusión restringida, utiliza voces clonadas para realizar llamadas telefónicas de ingeniería social. Esta técnica tiene innumerables aplicaciones, entre ellas el robo de identidad, las estafas con impostores y los esquemas de pago fraudulentos. Una operación de vishing deepfake bien diseñada puede explotar la confianza del destinatario de la llamada en la parte suplantada. La tecnología actual permite la clonación de voz realista, que se puede controlar en tiempo real con entradas de teclado. Comentarios privados inventados, un tipo de amenaza de transmisión, son clips de audio o videos deepfake que muestran falsamente a una figura pública haciendo comentarios dañinos detrás de escena. Botnets sociales sintéticosOtra amenaza para la difusión de contenidos es la de las redes sociales. Se podrían crear cuentas falsas en las redes sociales a partir de fotografías y textos sintéticos y ser operadas por inteligencia artificial, lo que podría facilitar una serie de daños financieros a empresas, mercados y reguladores. Escenarios dirigidos a individuos El robo de identidad: Voz sintetizada deepfake iniciar una transferencia bancaria fraudulenta. Audio o video deepfake utilizado para crear cuentas bancarias bajo identidades falsas, facilitando el lavado de dinero. Deepfakes en campañas de ingeniería social Para obtener acceso no autorizado a grandes bases de datos de información personal. Un funcionario de una empresa podría recibir una llamada telefónica falsa en la que se le pide su nombre de usuario y contraseña. Estafas de impostores: Los delincuentes se hacen pasar por “el gobierno, un familiar en apuros, una empresa conocida o un experto en soporte técnico” para presionar a la víctima a pagar dinero. Extorsión cibernética: Los estafadores a menudo manipulan a las víctimas amenazándolas con un daño inminente a menos que paguen dinero; por ejemplo, alegando que la víctima o un ser querido enfrenta cargos criminales o la suspensión de los beneficios gubernamentales. Los estafadores pueden clonar la voz de un individuo específico, como un familiar de la víctima o un funcionario gubernamental destacado conocido por muchas víctimas. Puestos de trabajo remoto: El uso de suplantación de voz, o posiblemente deepfakes, durante entrevistas en línea de posibles solicitantes. En estas entrevistas, las acciones y los movimientos labiales de la persona entrevistada en cámara no coinciden completamente con el audio de la persona que habla. El uso de deepfakes e información personal identificable (PII) robada para solicitar puestos de trabajo remoto. Algunos puestos incluyen acceso a información personal identificable (PII) de clientes, datos financieros, bases de datos de TI e información confidencial. Escenarios a los que se dirigen las empresas Fraude en los pagos: Los delincuentes a menudo piratean o falsifican una cuenta de correo electrónico de un director ejecutivo (CEO) y luego se comunican con un funcionario financiero para solicitar una transferencia bancaria urgente o la compra de una tarjeta de regalo. Los delincuentes también pueden hacerse pasar por proveedores de confianza (utilizando facturas falsas) o empleados (desviando depósitos directos). Los deepfakes podrían hacer que las llamadas telefónicas utilizadas en esquemas de vulneración de correos electrónicos comerciales suenen más auténticas. Cómo evaluar un vídeo o audio sospechoso (primero la procedencia) Comprobar procedencia: Busque etiquetas de autenticidad (p. ej., Credenciales de Contenido/C2PA) e identifique dónde apareció el clip por primera vez. Busque una corroboración fiable. Verificar fuera de banda: Si el clip solicita dinero, credenciales o una acción urgente, llame a un número conocido (que no esté en el mensaje) para confirmar. Utilice una palabra clave: Acordar de antemano una palabra clave familiar o empresarial para solicitudes urgentes. Desafío en vivo: En llamadas en vivo, pide acciones espontáneas (girar, mover un objeto, decir una frase al azar). A los deepfakers les cuestan las indicaciones novedosas de varios pasos. Luego busca artefactos: desajuste entre la boca y las consonantes, acústica extraña en la habitación, reflejos/sombras inconsistentes, bordes del cabello/joyas, reinicios repentinos del marco. Riesgo de pagos: No actúes a partir de un enlace o un clip Nunca pagues desde un enlace en un mensaje de texto/DM/correo electrónico que no esperabas. Navegue hasta el sitio o la aplicación usted mismo. Primera vez que lo recibe = precaución adicional: Haga una pausa y verifique por teléfono utilizando un número de contacto conocido. Si se solicita criptografía: Considérelo de alto riesgo. Los fondos suelen ser irreversibles; llame primero a su banco. Para empresas: Detengan el fraude de pagos impulsado por deepfakes Verificación fuera de banda: Exija verificación telefónica mediante números de directorio para cualquier cambio de pago o solicitud urgente, incluso si hay un "video del director ejecutivo". Controles para destinatarios por primera vez: Utilice límites o retenciones breves para nuevos beneficiarios en RTP/FedNow/Zelle/transferencias. Guiones del personal: Proporcionar a los equipos de primera línea un lenguaje empático para pausar los pagos presionados e involucrar a un especialista. Cómo prevenir el fraude deepfake Vigilancia: Preste mucha atención a los mensajes de voz o llamadas sospechosas que pueden sonar como alguien familiar pero que, sin embargo, le resulten un poco extrañas. Aprendizaje automático y análisis avanzado: Combate el fuego con fuego mediante la detección y análisis de deepfakes. Estrategia de prevención de fraude por capas: Utilice controles de identificación, como verificación, identificación del dispositivo, análisis de comportamiento y verificación de documentos, simultáneamente para contrarrestar la forma en que los estafadores pueden implementar o distribuir deepfakes. Confianza cero: Verifica todo lo que veas. Verifica dos o tres veces la fuente del mensaje. Busca imágenes para encontrar el original, si es posible.
Los deepfakes son imágenes, vídeos y audios creados artificialmente y diseñados para emular características humanas reales. Los deepfakes utilizan una forma de inteligencia artificial (IA) llamada aprendizaje profundo. Los actores malintencionados pueden aprovechar la tecnología detrás de los deepfakes para cometer robo de identidad, chantaje y fraude. El tipo de deepfake más conocido es un vídeo de intercambio de rostros, que transpone los movimientos faciales de una persona a los rasgos de otra. Otro tipo de deepfake es la clonación de voz, que copia los patrones vocales únicos de una persona para recrear y alterar digitalmente su habla. Deepfakes en 2025: ¿Qué hay de nuevo? Las herramientas de video con IA ahora permiten a cualquiera generar clips realistas que parecen videos sociales, a menudo usando rostros escaneados o avatares tipo "cameo". Dado que la calidad visual y de audio puede ser alta, debería considerar los medios convincentes como... inconfirmado hasta que se demuestre lo contrario. El enfoque más seguro es verificar la fuente y contexto, no los píxeles. Técnicas de deepfake: Vishing deepfake, un tipo de amenaza de difusión restringida, utiliza voces clonadas para realizar llamadas telefónicas de ingeniería social. Esta técnica tiene innumerables aplicaciones, entre ellas el robo de identidad, las estafas con impostores y los esquemas de pago fraudulentos. Una operación de vishing deepfake bien diseñada puede explotar la confianza del destinatario de la llamada en la parte suplantada. La tecnología actual permite la clonación de voz realista, que se puede controlar en tiempo real con entradas de teclado. Comentarios privados inventados, un tipo de amenaza de transmisión, son clips de audio o videos deepfake que muestran falsamente a una figura pública haciendo comentarios dañinos detrás de escena. Botnets sociales sintéticosOtra amenaza para la difusión de contenidos es la de las redes sociales. Se podrían crear cuentas falsas en las redes sociales a partir de fotografías y textos sintéticos y ser operadas por inteligencia artificial, lo que podría facilitar una serie de daños financieros a empresas, mercados y reguladores. Escenarios dirigidos a individuos El robo de identidad: Voz sintetizada deepfake iniciar una transferencia bancaria fraudulenta. Audio o video deepfake utilizado para crear cuentas bancarias bajo identidades falsas, facilitando el lavado de dinero. Deepfakes en campañas de ingeniería social Para obtener acceso no autorizado a grandes bases de datos de información personal. Un funcionario de una empresa podría recibir una llamada telefónica falsa en la que se le pide su nombre de usuario y contraseña. Estafas de impostores: Los delincuentes se hacen pasar por “el gobierno, un familiar en apuros, una empresa conocida o un experto en soporte técnico” para presionar a la víctima a pagar dinero. Extorsión cibernética: Los estafadores a menudo manipulan a las víctimas amenazándolas con un daño inminente a menos que paguen dinero; por ejemplo, alegando que la víctima o un ser querido enfrenta cargos criminales o la suspensión de los beneficios gubernamentales. Los estafadores pueden clonar la voz de un individuo específico, como un familiar de la víctima o un funcionario gubernamental destacado conocido por muchas víctimas. Puestos de trabajo remoto: El uso de suplantación de voz, o posiblemente deepfakes, durante entrevistas en línea de posibles solicitantes. En estas entrevistas, las acciones y los movimientos labiales de la persona entrevistada en cámara no coinciden completamente con el audio de la persona que habla. El uso de deepfakes e información personal identificable (PII) robada para solicitar puestos de trabajo remoto. Algunos puestos incluyen acceso a información personal identificable (PII) de clientes, datos financieros, bases de datos de TI e información confidencial. Escenarios a los que se dirigen las empresas Fraude en los pagos: Los delincuentes a menudo piratean o falsifican una cuenta de correo electrónico de un director ejecutivo (CEO) y luego se comunican con un funcionario financiero para solicitar una transferencia bancaria urgente o la compra de una tarjeta de regalo. Los delincuentes también pueden hacerse pasar por proveedores de confianza (utilizando facturas falsas) o empleados (desviando depósitos directos). Los deepfakes podrían hacer que las llamadas telefónicas utilizadas en esquemas de vulneración de correos electrónicos comerciales suenen más auténticas. Cómo evaluar un vídeo o audio sospechoso (primero la procedencia) Comprobar procedencia: Busque etiquetas de autenticidad (p. ej., Credenciales de Contenido/C2PA) e identifique dónde apareció el clip por primera vez. Busque una corroboración fiable. Verificar fuera de banda: Si el clip solicita dinero, credenciales o una acción urgente, llame a un número conocido (que no esté en el mensaje) para confirmar. Utilice una palabra clave: Acordar de antemano una palabra clave familiar o empresarial para solicitudes urgentes. Desafío en vivo: En llamadas en vivo, pide acciones espontáneas (girar, mover un objeto, decir una frase al azar). A los deepfakers les cuestan las indicaciones novedosas de varios pasos. Luego busca artefactos: desajuste entre la boca y las consonantes, acústica extraña en la habitación, reflejos/sombras inconsistentes, bordes del cabello/joyas, reinicios repentinos del marco. Riesgo de pagos: No actúes a partir de un enlace o un clip Nunca pagues desde un enlace en un mensaje de texto/DM/correo electrónico que no esperabas. Navegue hasta el sitio o la aplicación usted mismo. Primera vez que lo recibe = precaución adicional: Haga una pausa y verifique por teléfono utilizando un número de contacto conocido. Si se solicita criptografía: Considérelo de alto riesgo. Los fondos suelen ser irreversibles; llame primero a su banco. Para empresas: Detengan el fraude de pagos impulsado por deepfakes Verificación fuera de banda: Exija verificación telefónica mediante números de directorio para cualquier cambio de pago o solicitud urgente, incluso si hay un "video del director ejecutivo". Controles para destinatarios por primera vez: Utilice límites o retenciones breves para nuevos beneficiarios en RTP/FedNow/Zelle/transferencias. Guiones del personal: Proporcionar a los equipos de primera línea un lenguaje empático para pausar los pagos presionados e involucrar a un especialista. Cómo prevenir el fraude deepfake Vigilancia: Preste mucha atención a los mensajes de voz o llamadas sospechosas que pueden sonar como alguien familiar pero que, sin embargo, le resulten un poco extrañas. Aprendizaje automático y análisis avanzado: Combate el fuego con fuego mediante la detección y análisis de deepfakes. Estrategia de prevención de fraude por capas: Utilice controles de identificación, como verificación, identificación del dispositivo, análisis de comportamiento y verificación de documentos, simultáneamente para contrarrestar la forma en que los estafadores pueden implementar o distribuir deepfakes. Confianza cero: Verifica todo lo que veas. Verifica dos o tres veces la fuente del mensaje. Busca imágenes para encontrar el original, si es posible.