Sharon Brightwell jamás imaginó que su peor pesadilla empezaría con una llamada del número de su hija. Una voz desesperada, llorando al otro lado del teléfono, le pedía ayuda tras haber atropellado a una mujer embarazada. Era su hija. O al menos eso creyó.
En menos de 24 horas, esta madre jubilada de Hillsborough, Florida, entregó USD 15.000 en efectivo, más de 57 millones de pesos colombianos, a un desconocido que se presentó en su puerta. Todo había sido una mentira creada con inteligencia artificial.
La estafa no terminó ahí. Sharon recibió una segunda llamada exigiéndole otros USD 30.000 para evitar una supuesta demanda, esta vez bajo el argumento de que el bebé de la víctima había muerto. Pero fue su nieto quien, tras hablar con un amigo de la familia, confirmó lo impensable: su hija estaba bien. No había accidente, ni policía, ni abogado. Todo había sido fabricado con una tecnología capaz de clonar voces reales en segundos.
El nuevo rostro del fraude
Este caso, aunque impactante, no es único. A medida que las herramientas de clonación de voz impulsadas por IA se vuelven más accesibles y sofisticadas, los delincuentes están encontrando formas cada vez más convincentes de engañar a sus víctimas.
Con apenas unos segundos de audio extraídos de redes sociales o videos públicos, es posible recrear una réplica casi perfecta de la voz de una persona. Estas “deepfake voices” imitan el tono, el ritmo, las emociones, e incluso las pausas naturales del habla.
Consultores en ciberseguridad advierten que esta modalidad de fraude se está expandiendo desde Estados Unidos hacia América Latina, y Colombia no está exenta. Según un informe de la firma Recorded Future, en 2024 se triplicaron los casos reportados de estafas telefónicas con voz clonada en países como México, Brasil y Argentina.
¿Cómo funciona la estafa?
Los delincuentes suelen seguir un patrón:
Identifican a la víctima a través de redes sociales, especialmente adultos mayores.
Recolectan audios de seres queridos (videos de cumpleaños, historias de Instagram, entrevistas, etc.).
Usan software de clonación de voz —algunos gratuitos o disponibles en la web profunda— para recrear una llamada emocional.
Fingen una emergencia y presionan por una transferencia rápida de dinero.
En el caso de Sharon, la “voz” de su hija lloraba, suplicaba ayuda y entregaba el teléfono a un supuesto abogado que exigía discreción para no “afectar su historial judicial”. Bajo presión emocional, Sharon accedió a entregar sus ahorros de toda la vida.
¿Puede pasar en Colombia?
La respuesta es sí. En Colombia ya se han reportado intentos de fraude similares, donde se usan voces modificadas para fingir secuestros o accidentes. Lo nuevo es la sofisticación: ya no se trata de grabaciones distorsionadas, sino de voces que suenan reales, familiares y urgentes.
Expertos recomiendan establecer una “palabra clave” en familia para emergencias. Esta medida simple, pero efectiva, puede ser la diferencia entre caer en el pánico y detectar una estafa.
Ahora bien, las autoridades en Estados Unidos ya investigan el caso de Sharon. En Colombia, la Policía Cibernética ha lanzado campañas de prevención, pero aún no existen normativas específicas que regulen el uso malicioso de tecnologías de clonación de voz.
El vacío legal y la falta de educación digital están jugando a favor de los estafadores. En este contexto, la protección más eficaz sigue siendo la información y la desconfianza razonable: colgar, verificar y nunca actuar bajo presión emocional.
“Conozco el llanto de mi hija. Era ella. No podía dudarlo”, dijo Sharon entre lágrimas. Como muchas familias en el mundo, confió en lo que escuchó, sin saber que ahora las emociones también pueden ser manipuladas por algoritmos.
Imagen: Archivo ENTER.CO