La Inteligencia Artificial (IA) generativa abrió nuevas posibilidades tecnológicas, pero también creó herramientas que delincuentes utilizan para cometer fraudes. Uno de los métodos que más crece son las llamadas falsas con IA, capaces de imitar la voz de familiares, amigos o incluso instituciones financieras con gran precisión.
Suscríbete a nuestro canal de WhatsApp y mantente informado desde la palma de tu mano.
Expertos en ciberseguridad, como los analistas de la empresa ESET, advierten que este tipo de estafa se volvió cada vez más común. Con solo unos segundos de audio obtenidos de redes sociales, entrevistas o videos, los estafadores pueden clonar una voz y usarla para engañar a las víctimas y pedir dinero, códigos de seguridad o acceso a cuentas personales.
Se crean con herramientas que permiten clonar voces humanas en cuestión de minutos. Los delincuentes buscan fragmentos de audio en internet y los cargan en programas que replican el tono, ritmo y estilo de la persona elegida.
Después utilizan ese modelo para generar mensajes o incluso hablar en tiempo real durante una llamada. El objetivo es crear una situación de urgencia para que la víctima actúe sin pensar, como transferir dinero o compartir códigos de verificación.
Aunque muchas personas creen que estos ataques solo afectan a grandes empresas, la realidad es que los usuarios comunes son el principal objetivo. Las estafas más comunes son:
Aunque la tecnología mejora rápidamente, aún existen pistas que pueden delatar una voz generada por IA. Escuchar con atención puede marcar la diferencia.
Algunas señales frecuentes incluyen:
adn Noticias. Te Hablamos con la verdad. Suscríbete a nuestro canal de Telegram y lleva la información en tus manos.
