Por: Jaime Andrés Wilches, profesor investigador del Politécnico Grancolombiano
En las redacciones de los medios de comunicación ya no solo suenan teclados y llamadas telefónicas, ahora también escuchamos el murmullo digital de los algoritmos. Tres de cada cuatro periodistas en Iberoamérica ya usamos inteligencia artificial generativa cada semana, y cuatro de cada cinco recurrimos con frecuencia a herramientas como ChatGPT.
Son cifras contundentes, reveladas por el informe “Inteligencia artificial para la generación de contenidos en Iberoamérica” que elaboré en el Politécnico Grancolombiano, con apoyo de DataFactory e Iniciación Científica, en conjunto con el profesor Alexis Apablaza. Y aunque a muchos nos parecen cifras naturales, reflejan un cambio estructural en la forma de producir, editar y distribuir información.
Lo cierto es que la IA ya no es un experimento, es parte del proceso creativo. La usamos para verificar datos, transcribir entrevistas, generar borradores o incluso analizar tendencias en tiempo real. Hemos aprendido a trabajar con ella como si fuera un colega silencioso, que nunca se cansa ni se distrae.
Sin embargo, su presencia plantea una pregunta que no podemos ignorar: ¿qué pasa con el pensamiento crítico cuando una máquina comienza a anticipar nuestras ideas? En el informe encontramos que el 78% de los profesionales utiliza la IA generativa al menos una vez por semana, y un 98,7% reconoce su importancia futura.
Te puede interesar: Más allá de ChatGPT: el impacto real de la inteligencia artificial generativa en 2025
Los periodistas hemos abrazado esta tecnología con entusiasmo, pero también con cierta ingenuidad. La mayoría confía en su potencial para optimizar el trabajo, aunque olvidamos que cada algoritmo refleja los sesgos de los datos que lo entrenan. La objetividad puede ser, en realidad, una ilusión construida sobre miles de fuentes que no siempre representan la diversidad del mundo que intentamos narrar.
Mientras tanto, los lectores no parecen compartir nuestro optimismo. Estudios citados en el informe muestran que buena parte del público percibe la IA como una amenaza, porque temen que se diluya la autenticidad, que los contenidos pierdan profundidad y que la desinformación se multiplique.
Esa desconfianza debería preocuparnos, porque sin credibilidad no hay periodismo. Si las audiencias, nuestros públicos, comienzan a dudar de si un texto fue escrito por una persona o por una máquina, el vínculo que queremos lograr con el lector, que es nuestro verdadero capital, se debilita.
Aun así, no podemos negar los beneficios. La IA nos permite procesar grandes volúmenes de información en segundos, detectar patrones invisibles y automatizar tareas repetitivas. Nos libera tiempo para pensar, contextualizar y analizar, que son precisamente las tareas donde sigue habitando la esencia del periodismo.
Pero para que eso ocurra, necesitamos dominar la tecnología, no depender de ella. La línea entre el apoyo y la sustitución es cada vez más delgada. La investigación que realizamos nos muestra que el verdadero reto está en la regulación, la ética y la formación. Coincidimos plenamente. No se trata solo de usar herramientas como ChatGPT o Copilot, sino de entender sus límites.
Debemos exigir transparencia en los algoritmos, promover políticas públicas que protejan la propiedad intelectual y, sobre todo, repensar la enseñanza del periodismo en clave tecnológica. Quien no entienda cómo funciona la inteligencia artificial difícilmente podrá cuestionarla. Estamos frente a un cambio de paradigma.
La IA no vino a reemplazarnos, sino a desafiarnos. Nos obliga a redefinir qué significa ser periodista en la era digital: más que informar rápido, debemos hacerlo con sentido, con contexto y con ética. En este nuevo ecosistema, la credibilidad será nuestro único código fuente irremplazable.
Imagen: Generada con IA /ChatGPT
