En redes sociales se volvió viral un video de apenas 10 segundos que muestra a un pequeño canguro con un tiquete de avión, envuelto en una discusión entre su supuesta dueña y una azafata. El animal, con expresión desconcertada, parece entender que no lo dejarán abordar el vuelo y se retira resignado.
El clip ha generado millones de visualizaciones y reacciones en plataformas como Instagram y TikTok. Sin embargo, lo que muchos no saben es que se trata de un video generado por inteligencia artificial (IA). No es real.
El video fue publicado por la cuenta Infinite Unreality, conocida por subir contenido digital manipulado. En su perfil es común encontrar jirafas en aeropuertos o hipopótamos en sillas de avión. Es un espacio dedicado exclusivamente a la creación de escenas imposibles, generadas con IA.
Ver esta publicación en Instagram
A pesar de esto, miles de internautas creyeron la historia del canguro. Algunos incluso lo defendieron, argumentando que era un animal de soporte emocional con tiquete en regla. Los memes no tardaron en llegar, y las versiones del video con diferentes canciones se multiplicaron rápidamente.
El principal problema de este tipo de contenido viral es que muchas personas aún no saben cómo identificar un video falso hecho con IA. La falta de educación digital permite que se difundan escenas manipuladas como si fueran reales.
¿Cómo saber si un video fue generado con IA?
La clave está en los detalles. En el caso del video del canguro, varios elementos revelan su origen artificial. Por ejemplo, al inicio del clip la mujer no lleva ningún anillo, pero hacia el final aparece uno dorado en su dedo. Esto indica que el modelo de IA cometió errores en la continuidad visual.
Además, el tiquete que sostiene el canguro tiene letras borrosas e ilegibles, algo común en imágenes y videos creados por IA. Otro indicio es que las mujeres no hablan un idioma real. Según el medio RTV, solo una frase en japonés fue reconocible, el resto son sonidos sin sentido.
Herramientas como Hive AI permiten analizar videos sospechosos y determinar si fueron generados con inteligencia artificial. En este caso, Hive concluyó con un 99% de certeza que el video del canguro no es auténtico.
¿Por qué estos videos virales generan preocupación?
Aunque el video del canguro parece inofensivo, su viralidad pone en evidencia un problema creciente: los videos creados con inteligencia artificial son cada vez más convincentes y fáciles de distribuir. Esto plantea riesgos para la desinformación, el fraude digital y la manipulación emocional en redes sociales.
Ya existen casos más graves. Recientemente, una mujer fue estafada por un supuesto George Clooney generado con IA. El avatar virtual la engañó sentimentalmente y le robó una importante suma de dinero. Este tipo de engaños no solo afectan a individuos, también pueden influir en la opinión pública.
¿Cómo protegerse de los videos falsos hechos con IA?
Para evitar caer en este tipo de trampas digitales, los expertos recomiendan desarrollar habilidades básicas de verificación. Entre ellas: revisar si hay incoherencias visuales, analizar los textos presentes en el video, evaluar si los movimientos o diálogos parecen naturales y verificar la fuente original.
Además, si se trata de cuentas que publican regularmente contenido poco creíble, es probable que se trate de videos generados por IA. Siempre es útil hacer una búsqueda inversa o acudir a herramientas de análisis de medios como Hive o el Detector de La Silla Vacía.
Ahora bien, para concluir, el video del canguro con boleto de avión no es real. Fue creado con inteligencia artificial y se viralizó rápidamente por su ternura y aparente realismo. Sin embargo, su éxito demuestra que aún falta mucho por hacer en materia de alfabetización digital.
Distinguir entre lo real y lo artificial será una habilidad fundamental en la era de los contenidos generados por IA. Aprender a detectar errores, sospechar de lo imposible y verificar antes de compartir son hábitos que debemos incorporar cuanto antes.
Imagen: Captura de pantalla