¿Sabías que decir una sola palabra por celular podría ser suficiente para que te roben todos tus ahorros? Una nueva modalidad de fraude telefónico con inteligencia artificial se está expandiendo a nivel mundial. Los ciberdelincuentes ya no necesitan contraseñas ni códigos, ahora solo les basta con grabar una palabra que casi todos decimos al contestar una llamada. En esta nota te explicamos cómo funciona este tipo de estafa, qué riesgos representa y, sobre todo, cómo protegerte.
Una palabra puede abrir la puerta al fraude
Los delincuentes suelen llamar desde números desconocidos y buscan que respondas de cierta manera, especialmente con una palabra clave. En muchos casos, ni siquiera se identifican; simplemente esperan a que tú digas algo. Esa breve respuesta puede ser grabada y utilizada después para suplantar tu identidad o autorizar operaciones bancarias, aprovechando herramientas de inteligencia artificial que permiten imitar tu voz con sorprendente precisión.
Este modalidad de fraude, conocida como “fraude del sí” o “say yes scam”, aprovecha la grabación de afirmaciones como “sí” para replicarlas en otros contextos. Algunas entidades financieras y plataformas digitales automatizadas utilizan comandos de voz como mecanismo de validación, y es allí donde los estafadores encuentran una oportunidad.
Una amenaza que ya es global
Este modelo de estafa se ha transformado en un fenómeno mundial, con casos reportados en distintos países.
En España, el Instituto Nacional de Ciberseguridad (INCIBE) ha advertido sobre llamadas en las que los delincuentes graban respuestas afirmativas para luego suplantar la identidad de la víctima en gestiones bancarias o contratos.
En Estados Unidos, la empresa de crédito Experian alertó sobre esta técnica, destacando que los delincuentes utilizan la respuesta afirmativa para autorizar pagos, activar servicios o realizar compras en línea.
En Australia, las autoridades han recibido múltiples denuncias sobre estafas con voz clonada, generada por IA, utilizada para imitar acentos locales y engañar a los ciudadanos.
En Irlanda, durante la temporada navideña de 2024, se detectaron llamadas con voces sintéticas que suplantaban a familiares para pedir dinero urgente.
En América Latina, países como México, Perú y Argentina han registrado un aumento de fraudes telefónicos usando IA para replicar la voz de seres queridos, en muchos casos solicitando transferencias bajo supuestas emergencias.
Estas estrategias forman parte de una tendencia global conocida como “vishing” (phishing por voz), que ahora se potencia con inteligencia artificial y tecnologías de clonación de voz.
Te puede interesar: AlphaEvolve, la inteligencia artificial de Google que piensa como un matemático: ¿están en riesgo los humanos?
¿Cómo lo logran con tan poco?
La inteligencia artificial ha alcanzado un nivel de precisión tal que permite clonar voces humanas con solo unos segundos de audio. Los ciberdelincuentes aprovechan esto para recolectar fragmentos de voz mediante llamadas, mensajes o incluso videos en redes sociales. Con esa muestra, pueden generar una réplica casi idéntica de la voz de una persona y utilizarla para autorizar operaciones bancarias, contratar servicios, hacer compras por teléfono o acceder a sistemas automatizados, todo sin necesidad de que la víctima participe directamente.
¿Cómo protegerte?
- Evita responder con “sí” a llamadas de números desconocidos. Usa alternativas como “¿Diga?” o “¿Quién habla?”.
- No compartas datos personales ni bancarios por teléfono, a menos que hayas iniciado tú la llamada.
- Verifica la identidad de quien llama antes de actuar. Si te dicen que es un familiar o banco, corta la llamada y llama tú a un número oficial.
- Activa alertas de seguridad en la app móvil para estar al tanto de movimientos sospechosos.
- Educa a tus contactos sobre estas nuevas formas de fraude para evitar que más personas caigan en la trampa.
Un riesgo silencioso, pero creciente
Con el avance acelerado de la inteligencia artificial, estos fraudes están ganando terreno porque no requieren habilidades técnicas complejas, solo ingeniería social y una grabación. La amenaza es silenciosa, global y en aumento.
Por eso, la mejor defensa es la información. Compartir este tipo de contenidos, hablar del tema con amigos y familiares, y estar atentos a cómo interactuamos por teléfono son acciones importantes para protegernos.
Imagen: Generada con IA / ChatGPT