15 de enero de 2026
Buenos Aires, 22 C

Cómo clonan tu voz para suplantar identidades

La clonación de voz mediante inteligencia artificial ha pasado de ser una posibilidad remota a una amenaza cotidiana que afecta tanto a personas como a organizaciones.

Consiste en generar una réplica digital muy fiel de la voz de alguien a partir de grabaciones, lo que facilita el engaño y la manipulación con un grado de realismo cada vez mayor.

Según la plataforma de ciberseguridad SOSAFE, el uso de redes de aprendizaje profundo y modelos como Tacotron, WaveNet o Lyrebird ha permitido alcanzar una precisión que reproduce incluso matices y sutilezas del habla.

Cómo los ciberdelincuentes logran clonar una voz

Con apenas unos segundos de audio, un atacante puede recrear la voz de un familiar, un compañero o un directivo y emplearla para cometer fraudes o difundir información falsa. Estudios recientes señalan que una de cada cuatro personas ha sufrido directa o indirectamente ataques relacionados con clonación de voz, y muchas han sufrido pérdidas económicas.

Los delincuentes integran voces clonadas en campañas de ingeniería social que operan en varios canales simultáneamente, lo que amplifica el riesgo.

Los ejemplos incluyen estafas por supuestos secuestros, donde se usa la voz de un menor para solicitar rescates, y suplantaciones en entornos empresariales mediante videollamadas manipuladas que inducen a empleados a realizar transferencias. En Hong Kong se registró un caso en el que, tras una videoconferencia con suplantaciones visuales y auditivas, un empleado fue persuadido para enviar 25 millones de dólares.

El fenómeno también tiene implicaciones políticas y sociales: se han divulgado audios falsos atribuidos a líderes para influir en procesos electorales. En las primarias de New Hampshire apareció una grabación generada por IA que imitaba la voz del presidente de Estados Unidos llamando a no votar, lo que muestra el riesgo para la integridad democrática en campañas electorales internacionales.

La disponibilidad de “clonación de voz como servicio” ha facilitado el acceso a esta tecnología. Plataformas en la dark web ofrecen la clonación mediante pago o suscripción, reduciendo las barreras técnicas y permitiendo que actores malintencionados adopten estas prácticas, lo que profesionaliza el ciberdelito y obliga a revisar las estrategias de defensa.

Cómo combatir las estafas realizadas con IA

Detectar voces clonadas es complejo, pero la combinación de análisis espectral, técnicas de aprendizaje automático, detección de artefactos digitales y reconocimiento biométrico proporciona herramientas para identificar audio sintético. Aun así, la reacción emocional ante una voz familiar sigue siendo una vulnerabilidad clave, ya que puede llevar a actuar sin verificar.

La prevención requiere medidas desde múltiples frentes: implementar autenticación multifactor, mantener programas de formación y concienciación periódicos, establecer protocolos internos claros y limitar la exposición pública de datos personales. Ante solicitudes telefónicas inusuales, conviene confirmar la petición por canales alternativos y utilizar palabras clave preacordadas entre familiares o equipos.

Las organizaciones deben invertir en tecnologías de detección de audio sintético y diseñar protocolos robustos para el manejo de información sensible. El contexto actual demanda vigilancia constante y un enfoque integral de gestión del riesgo humano que implique a todos los miembros.

En un entorno donde la inteligencia artificial aumenta tanto la productividad como las amenazas, la educación, la tecnología y la prevención son elementos fundamentales para reducir la posibilidad de que la voz al otro lado de la línea pertenezca a un impostor.

Artículo anterior

Graduación y reencuentro de Eloísa, hija de Paola Krum y Joaquín Furriel

Artículo siguiente

Partido Demócrata de Hong Kong se disuelve tras más de 30 años

Continuar leyendo

Últimas noticias