La Inteligencia Artificial (IA) ha avanzado tanto en los últimos años que hoy es capaz de imitar voces humanas con gran precisión. Esta tecnología tiene usos positivos, como en la creación de contenido audiovisual, doblaje o incluso música.
Sin embargo, también ha sido aprovechada por los ciberdelincuentes para realizar estafas telefónicas más creíbles que nunca.

Según la Secretaría de Seguridad y Protección Ciudadana (SSPC), estas llamadas falsas buscan manipular emocionalmente a las víctimas para obtener dinero, información personal o acceso a cuentas bancarias. Lo más preocupante es que la voz clonada puede sonar exactamente igual que la de un familiar o amigo.

¿Cómo operan las estafas con voces clonadas por IA?

Antes, los fraudes telefónicos solían hacerse con grabaciones o personas que fingían ser empleados de instituciones bancarias.
Hoy, gracias a la IA, los estafadores usan sistemas de clonación de voz capaces de copiar el tono, ritmo y entonación de cualquier persona.

La SSPC advierte que, aunque las voces clonadas pueden parecer reales, los delincuentes suelen seguir patrones reconocibles. Por ejemplo, usan frases alarmantes o de emergencia para generar miedo o confusión, y así lograr que la víctima actúe sin pensar.

Señales para detectar una llamada falsa con IA

Si recibes una llamada donde alguien dice ser tu familiar o amigo y asegura estar en una emergencia, no respondas de inmediato. Cuelga y comunícate directamente con esa persona para confirmar su identidad.
Además, pon atención a estas señales:

  • Voz poco natural: puede sonar robótica o demasiado perfecta, sin pausas o respiración.
  • Silencio total de fondo: la falta de ruidos ambientales o murmullos es sospechosa.
  • Habla demasiado correcta: las personas suelen tener muletillas; una voz sin errores puede ser generada por IA.
  • Tono emocional extremo: si buscan asustarte o apurarte, probablemente es un intento de estafa.

Cómo protegerte de las estafas con voces clonadas

  • Evita publicar audios o videos con tu voz en redes sociales o plataformas públicas; basta con unos segundos para que puedan clonarla.
  • Establece palabras clave o códigos entre familiares o amigos para confirmar la identidad en caso de emergencia.
  • Nunca compartas información personal o financiera por teléfono, aunque la voz suene familiar.
  • Denuncia cualquier intento sospechoso ante las autoridades o instancias de ciberseguridad.

La clonación de voz con Inteligencia Artificial es una muestra del poder —y también del peligro— de la tecnología moderna. Aprender a reconocer y prevenir estas estafas es clave para protegernos en esta nueva era digital.

 

Cumple los criterios de The Trust Project

Saber más

Síguenos en Google Noticias para mantenerte siempre informado

Sigue el canal de Diario De Morelos en WhatsApp