Saltar al contenido principal Saltar al menú principal Saltar al pie

Estafas de suplantación de clones de voz con IA

Estafas de suplantación de clones de voz con IA

Disminuir el tamaño del texto Aumentar el tamaño del texto

Página del artículo

En la era digital actual, los rápidos avances en inteligencia artificial han dado lugar a clones de voz o voces deepfake, lo que ha provocado un preocupante aumento de posibles estafas. Por muy emocionantes que puedan ser estas innovaciones tecnológicas, también conllevan amenazas importantes. A continuación, analizamos los tipos de estafas que podemos anticipar que se producirán debido a los clones de voz y cómo puede protegerse contra ellas.

Las tres principales estafas a tener en cuenta:

  1. Estafas de impostores desde dentro: Imagínese recibir una llamada de un superior o un colega que le pide que realice una transacción financiera urgente. La voz es idéntica. ¿Por qué dudarlo? Muchos creen que en el futuro podrían aparecer videollamadas deepfake, lo que haría que el engaño fuera aún más creíble.
  2. Estafas BEC (compromiso de correo electrónico comercial): Estas estafas están destinadas a aumentar, y los estafadores utilizan la voz de la IA para imitar a la perfección a directores ejecutivos o altos funcionarios. ¿Su principal objetivo? Engañar a empleados desprevenidos para que realicen transferencias bancarias no autorizadas o filtren datos confidenciales.
  3. Estafas de extorsión y rescate: Estos son quizás los más alarmantes. Los estafadores utilizan clones de voz generados por IA para imitar las voces de sus seres queridos, a menudo para transmitir emergencias o crisis falsas. ¿El resultado? Las víctimas pueden verse obligadas a pagar un rescate, pensando que están ayudando a alguien que les importa.

Tipos adicionales de estafas:

  • Estafas de soporte técnico: Los estafadores pueden replicar la voz de representantes de servicio al cliente genuinos. Pueden afirmar que hay un problema con su dispositivo o software, y pedirle que comparta información confidencial o que realice un pago.
  • Fraude de seguro: Los estafadores podrían imitar la voz de un agente de seguros y pedir a las víctimas que renueven sus pólizas, las actualicen o proporcionen datos personales para fines de verificación.
  • Estafas de suplantación de identidad bancaria: Al imitar la voz de un representante bancario, los estafadores podrían solicitar detalles de verificación de cuenta, alegando que es para un control de seguridad de rutina.
  • Estafas en el ámbito sanitario: Con la clonación de voz mediante inteligencia artificial, los estafadores podrían hacerse pasar por médicos o proveedores de atención médica y solicitar detalles médicos personales o el pago de procedimientos médicos que nunca se realizaron.
  • Estafas de emergencia: Más allá del simple rescate, estas estafas juegan con las emociones imitando la voz de un amigo o familiar, afirmando que han tenido un accidente o que están en problemas y necesitan ayuda financiera urgentemente.
  • Estafas de renovación de suscripciones: Al pretender ser proveedores de servicios de suscripción (como revistas, servicios de streaming, etc.), los estafadores podrían solicitar datos de tarjetas de crédito para renovar el contrato.
  • Estafas en encuestas y premios: Los estafadores podrían hacerse pasar por investigadores o representantes de empresas conocidas y afirmar que usted ha ganado un premio. Para "reclamar" su recompensa, se le solicitará que proporcione datos personales o financieros.
  • Estafas de caridad y donaciones: Especialmente después de grandes eventos o desastres, los estafadores pueden imitar organizaciones benéficas legítimas y solicitar donaciones.
  • Estafas de inversión: Haciéndose pasar por asesores financieros o corredores, los estafadores pueden ofrecer oportunidades de inversión "demasiado buenas para ser ciertas" y exhortarlo a actuar rápidamente.
  • Estafas románticas: Al utilizar la clonación de voz mediante inteligencia artificial, los estafadores pueden profundizar el engaño en las plataformas de citas en línea al proporcionar llamadas de voz que se alinean con los perfiles falsos que han creado.
  • Estafas en viajes y vacaciones: Haciéndose pasar por agentes de viajes u operadores turísticos, los estafadores podrían ofrecer viajes o vacaciones con descuento y solicitar el pago inmediato.

Cómo protegerse de los estafadores de voz con inteligencia artificial:

A continuación se presentan algunas formas clave de identificar y evitar caer en estas estafas:
  • Interactúe con ellos con una pregunta al azar: Confundirlos con una pregunta inesperada como "¿Cómo está el clima en [ciudad al azar]?" Una IA, preparada con scripts específicos, fallará.
  • Pon a prueba sus habilidades musicales: Pídales que tarareen una melodía o canten una canción. Los clones de voz de IA actuales no pueden igualar el tono y la variación del canto humano genuino.
  • Introducir el humor: Cuente un chiste y observe la respuesta. La IA no entiende realmente el humor y su respuesta será inapropiada o totalmente fuera de contexto.
  • Esté atento a la repetición: Los clones de voz de IA tienden a regurgitar las mismas respuestas predefinidas. Si notas respuestas repetidas o extrañamente similares, es probable que estés tratando con un clon.
  • Obtener personal: Plantee una pregunta que la persona a la que se hace pasar sepa. Una IA, al carecer de ese conocimiento personal, dará una respuesta incorrecta o desviará la atención.
  • Llamar de vuelta: Si recibe una llamada inesperada exigiendo una acción o información, cuelgue y vuelva a llamar a un número conocido y confiable de esa persona u organización.
  • Evaluación del ruido de fondo: Preste atención a las inconsistencias en el ruido de fondo. El audio generado por IA puede carecer de los sonidos ambientales típicos de una llamada real o puede utilizar bucles de fondo repetitivos.
  • Software de análisis de voz: Están surgiendo herramientas y software que pueden detectar discrepancias entre una voz genuina y su contraparte clonada. Estos pueden ser especialmente útiles para empresas o víctimas frecuentes de este tipo de estafas.
  • Consistencia temporal: Interactúe con la persona que llama en conversaciones más largas. Los clones de voz de IA pueden mostrar inconsistencias con el tiempo, especialmente en interacciones más largas.
  • Uso de modismos y frases: Cada persona tiene una forma de hablar específica o ciertas frases que utiliza con frecuencia. Si la voz no las utiliza o las utiliza de forma incorrecta, puede ser una señal.
  • Pide recuerdos pasados: Hablar de recuerdos o experiencias compartidas puede ser complicado para un estafador, que podría eludir la pregunta o dar una respuesta vaga.
  • Consistencia emocional: Mida la coherencia emocional del hablante. Si bien la IA puede imitar tonos de voz, encontrar el tono emocional correcto en una conversación dinámica puede ser un desafío.
  • Configurar contraseñas de voz: Para las comunicaciones críticas, especialmente dentro de las empresas, configure contraseñas de voz o frases que sólo conozcan las partes involucradas.
  • Uso de otros medios de verificación: Antes de realizar cualquier transacción financiera o compartir información confidencial, siempre verifique la solicitud a través de un canal de comunicación diferente. Utilice otros métodos en conjunto, como videollamadas (aunque tenga cuidado con la tecnología de video deepfake), verificaciones de texto o confirmaciones por correo electrónico.
  • Cambios inesperados en el tema: Cambiar de tema rápidamente o mencionar algo totalmente inesperado. Una IA, especialmente una que funcione con un guión, podría tener dificultades para seguir el ritmo o responder adecuadamente.
  • Monitorizar la latencia: Preste atención a pausas o demoras no naturales en la conversación. Esto podría indicar que la IA está procesando la información recibida para generar una respuesta.
  • Consulte periódicamente con los contactos: Mantenerse en contacto con los contactos de forma regular o establecer una rutina puede establecer un patrón. Cualquier desviación de este criterio puede ser una señal de alerta.
  • Autenticación multifactor (MFA): Incorpore la autenticación multifactor en sus relaciones comerciales y personales. Esto añade una capa adicional de seguridad incluso si alguien tiene acceso a su voz o a sus datos personales.
  • Manténgase actualizado: Con los rápidos avances de la tecnología, asegúrese siempre de estar al tanto de las últimas estafas y las medidas de seguridad recomendadas. Manténgase informado sobre lo último en tecnología de clonación de voz. Cuanto más sepa, mejor preparado estará para detectar las falsificaciones.
  • Educar y Capacitar: Si se encuentra en un entorno empresarial, asegúrese de que su personal esté capacitado para reconocer y denunciar posibles amenazas.
  • Establezca una palabra clave verbal: Asegúrate de que sea una que solo tú y tus seres queridos conozcan. (Las instituciones financieras y las compañías de alarmas suelen configurar cuentas con una palabra clave de la misma manera para garantizar que seas realmente tú cuando hables con ellas). Asegúrate de que todos la conozcan y la utilicen en los mensajes cuando pidan ayuda. 
  • Proteja su identidad: Los servicios de monitoreo de identidad pueden notificarle si su información personal llega a la red oscura y brindarle orientación sobre medidas de protección. Esto puede ayudar a bloquear otras formas en las que un estafador puede intentar hacerse pasar por usted. 
  • Limpie su nombre de los sitios de corredores de datos: ¿Cómo consiguió ese estafador tu número de teléfono? Es posible que haya obtenido esa información de un sitio de corretaje de datos. Los corredores de datos compran, recopilan y venden información personal detallada, que recopilan de varias fuentes públicas y privadas, como registros locales, estatales y federales, además de terceros. 
  • Confía en tus instintos: Si sientes que algo no está bien, probablemente así sea. Confía siempre en tu intuición y tómate un momento para evaluar la situación.

Consejos de seguridad en las redes sociales:

Para evitar la clonación de voz por parte de la IA, es necesario proteger los datos de voz de la misma forma que se protege otra información personal. A medida que las tecnologías de inteligencia artificial y aprendizaje profundo se vuelven más avanzadas, incluso se pueden utilizar muestras de audio breves para recrear la voz de una persona. 

Al considerar las redes sociales y el compartir en línea, aquí hay algunos pasos que las personas pueden tomar para proteger sus voces:
  • Limitar vídeos públicos: No publiques videos largos en los que hables. Si necesitas compartir un video, considera usar superposiciones de texto o subtítulos en lugar de comunicación verbal.
  • La configuración de privacidad: Asegúrate de que tus perfiles en las redes sociales sean privados, limitando el acceso a ellos a amigos y familiares conocidos. Revisa y actualiza periódicamente estas configuraciones, ya que las plataformas suelen sufrir cambios.
  • Tenga cuidado con las aplicaciones de voz: Tenga cuidado al utilizar aplicaciones o funciones de redes sociales basadas en voz, como tweets de voz o mensajes de voz.
  • Evite los desafíos de voz: Las plataformas de redes sociales a veces tienen desafíos de voz o tendencias que alientan a los usuarios a compartir notas de voz o videos. Participar en ellos puede exponer su voz a una audiencia más amplia.
  • Revisar medios almacenados: Revisa periódicamente las plataformas en las que hayas subido videos o podcasts anteriormente. Considera eliminar o reemplazar contenido antiguo, especialmente si ya no es relevante.
  • Cuidado con el phishing de voz: Tenga cuidado con cualquier llamada o mensaje no solicitado que le pida que confirme verbalmente información personal.
  • Educar e Informar: Informa a tus amigos y familiares sobre los riesgos de la clonación de voz con IA. Cuanto más conscientes sean las personas, menos probabilidades habrá de que compartan sin darse cuenta contenido que incluya tu voz.
  • Autenticación de voz: Si utiliza la autenticación por voz para cualquier servicio, tenga en cuenta que su huella de voz es un dato valioso. Asegúrese de que dichos servicios cuenten con medidas de seguridad sólidas.
  • Verificar el consentimiento: Si asiste a eventos o seminarios web, o si participa en podcasts o entrevistas, siempre pregunte cómo se utilizará su voz. Si es posible, obtenga un acuerdo escrito que restrinja la distribución o el uso no autorizados.
  • Piensa antes de hacer clic y compartir: ¿Quién está en tu red de redes sociales? ¿Hasta qué punto los conoces y confías en ellos? Cuanto más amplias sean tus conexiones, más riesgos corres al compartir contenido sobre ti. Ten en cuenta a tus amigos y conexiones en línea y configura tus perfiles solo para “amigos y familiares” para que tu contenido no esté disponible para el público en general.

Escenarios con mayores probabilidades de éxito en estafas de voz con inteligencia artificial:

Situaciones de emergencia:
  • Accidente o avería de coche
  • Robo
  • Emergencia médica u hospitalización.
  • Problemas legales inesperados o arresto.
Objetos personales perdidos:
  • Teléfono o billetera perdida.
  • Pasaporte o documentos de viaje perdidos.
  • Equipaje extraviado durante el viaje.
Cuestiones relacionadas con los viajes:
  • Afirmando estar varado en el extranjero y necesitar ayuda.
  • Incidentes en la reserva o problemas con el pago del hotel.
  • Problemas en las aduanas o controles fronterizos.
Urgencias financieras:
  • Facturas o deudas inesperadas.
  • Impuestos adeudados inmediatamente para evitar multas.
  • Oportunidad de negocio o inversión que es "demasiado buena para dejarla pasar".
Tácticas de relaciones personales:
  • Problemas de relación que necesitan ayuda financiera.
  • Embarazos inesperados o problemas relacionados.
  • Necesidad urgente de dinero para eventos familiares, como funerales o bodas.
Vivienda o situación de vida:
  • Aviso de desalojo o pago inmediato de renta.
  • Servicios públicos cortados debido a facturas impagas.
  • Desastres naturales que provocan reubicación urgente.
Compromisos digitales:
  • Rescate por fotos o vídeos explícitos supuestamente comprometidos.
  • Supuesto hackeo de cuentas personales exigiendo dinero a cambio de recuperación.
  • Exigencias de pago tras descargas no autorizadas de software o medios.
Oportunidades de empleo o trabajo:
  • Gastos de viaje imprevistos para una oferta de trabajo “garantizada”.
  • Pago de capacitaciones o certificaciones para una oportunidad “exclusiva”.
  • Pago por adelantado para oportunidades de trabajo freelance o desde casa.

Prevención de apropiación de cuentas:

La suplantación de voz por IA puede ser alarmantemente eficaz, especialmente cuando se combina con otras tácticas, en el contexto de robos de cuentas bancarias. A continuación, le explicamos cómo:
  • Llamadas de phishing: Usar una voz familiar (como la de un ejecutivo o miembro del personal de un banco o cooperativa de crédito) para convencer a los titulares de cuentas de que compartan información confidencial, como PIN, contraseñas u OTP (códigos de acceso de un solo uso).
  • Omisión de autenticación de dos factores (2FA): Suplantar la identidad del titular de la cuenta para solicitar o interceptar códigos 2FA a través de una llamada.
  • Restablecer credenciales de cuenta: Usar suplantación de voz para llamar al servicio de atención al cliente, haciéndose pasar por el titular de la cuenta y solicitando un restablecimiento de contraseña o cambios de cuenta.
  • Alertas de cuentas falsas: Haciéndose pasar por el departamento de fraude de la institución financiera para reportar actividad sospechosa y convencer al usuario de proporcionar o confirmar detalles de la cuenta o mover dinero a una cuenta "segura".
  • Manipulación de la configuración de seguridad de la cuenta: Después de obtener acceso inicial a través de la suplantación de voz, el atacante podría alterar la configuración de la cuenta para facilitar el acceso no autorizado en el futuro.
  • Autorización de transacciones fraudulentas: Usar comandos de voz para autorizar pagos o transferencias bancarias a través de sistemas de banca telefónica que dependen de la autenticación de voz.
  • Recopilación de información adicional: Participar en conversaciones casuales para extraer más información personal de las víctimas que luego puede usarse en otras estafas o para realizar preguntas de seguridad.
  • Ingeniería social del personal de bancos o cooperativas de crédito: La suplantación de voz mediante inteligencia artificial se puede utilizar para sonar como un alto ejecutivo bancario y dar instrucciones a empleados subalternos para que realicen transacciones o cambios no autorizados en una cuenta.
  • Imitación de aprobaciones verbales grabadas: Si una institución financiera registra el consentimiento verbal o las aprobaciones con fines de documentación, se puede utilizar la clonación de voz mediante inteligencia artificial para falsificar dicho consentimiento.
  • Combinación con tecnología Deepfake: La combinación de suplantación de voz con videos deepfake puede generar videollamadas convincentes, engañando aún más a las víctimas o al personal del banco.
  • Creación de referencias o verificaciones falsas: Utilizando IA para simular voces de referencias o contactos a los que la institución financiera podría llamar para la verificación de cuenta.
Recuerde que, si bien estas tácticas son amenazas potenciales, es fundamental conocerlas para implementar defensas. Las instituciones financieras mejoran continuamente sus medidas de seguridad y capacitan a su personal para reconocer y prevenir este tipo de intentos. Por parte del usuario, ser cauteloso y verificar cualquier solicitud inusual de forma independiente puede ser una defensa sólida contra posibles estafas de suplantación de voz por IA.

Cómo la IA ayuda a los estafadores a superar las barreras lingüísticas

La IA puede ser entrenada para imitar cualquier voz en prácticamente cualquier idioma o dialecto, lo que permite a los estafadores que no hablen inglés con fluidez realizar estafas en perfecto inglés.
Autenticidad mejorada: aunque un estafador hable algo de inglés, los hablantes nativos pueden detectar un acento o imprecisiones gramaticales. La suplantación de voz con IA puede producir un acento nativo impecable, lo que aumenta la credibilidad de la estafa.
  • Escalabilidad: Los estafadores pueden usar voces generadas por IA para producir llamadas o mensajes fraudulentos en masa sin necesidad de un equipo de personas que hablen inglés.
  • Adaptabilidad: Los sistemas de IA se pueden actualizar o adaptar rápidamente para utilizar diferentes voces, tonos o lenguajes específicos para llegar mejor a distintos grupos demográficos.
  • Uso de datos preexistentes: Con grandes cantidades de datos de voz disponibles en línea (de discursos públicos, podcasts, entrevistas, etc.), es más fácil entrenar modelos de IA para imitar una voz particular sin que el estafador tenga ningún conocimiento del idioma.
  • Integración con Otras Tecnologías: La suplantación de voz por IA se puede combinar con otras tecnologías impulsadas por IA, como los chatbots. Esto significa que un estafador podría implementar un chatbot que hable inglés, equipado con suplantación de voz por IA, para interactuar con las víctimas en tiempo real y adaptarse a la conversación a medida que avanza.
  • Menor riesgo de error humano: Los humanos pueden cometer errores, olvidar guiones o reaccionar emocionalmente. Las estafas de voz impulsadas por IA pueden ser más consistentes, lo que reduce el riesgo de errores que podrían delatar la estafa.
  • Evitar la biometría de voz: A medida que los bancos y otras instituciones utilizan cada vez más la biometría de voz para la identificación, la suplantación de voz mediante inteligencia artificial podría usarse potencialmente para eludir dichas medidas de seguridad, incluso si el estafador no entiende la conversación en curso.
  • Respuestas con guión: Incluso sin comprender la conversación, los estafadores pueden programar sistemas de IA con respuestas predefinidas a preguntas o indicaciones comunes, garantizando así que la conversación fluya de forma natural.



El pie de página no tiene contenido