Por: Lina María Valencia Gallo, docente de derecho del Politécnico Grancolombiano
La inteligencia artificial (IA) ha irrumpido en el ámbito educativo con una velocidad y profundidad que no solo transforma los métodos de enseñanza, sino que redefine el papel de la tecnología en la construcción del conocimiento. Su capacidad para procesar grandes volúmenes de información, generar contenidos, personalizar experiencias de aprendizaje y automatizar tareas repetitivas ha convertido a la IA en una herramienta indispensable para la educación del siglo XXI.
En el Politécnico Grancolombiano, junto a los docentes Paula Usquiano, Diana Botero y Edier Girado, decidimos abordar esta revolución tecnológica desde una perspectiva crítica: ¿cómo impacta el uso de la IA en la creación de contenidos académicos y en los principios éticos que rigen la educación superior?
La IA no es una tecnología neutral. Sus resultados dependen de los datos con los que ha sido entrenada y de los algoritmos que la gobiernan, lo que implica que sus respuestas pueden reproducir sesgos, omisiones o incluso errores. A pesar de sus beneficios (como la eficiencia en la búsqueda de información, la generación de textos coherentes y la asistencia en procesos investigativos), no puede considerarse una fuente completamente confiable ni libre de cuestionamientos éticos.
Uno de los principales dilemas que enfrentamos es la autoría. ¿Quién es el verdadero autor de un texto generado por IA? ¿Cómo se protege la propiedad intelectual cuando los límites entre creación humana y automatizada se difuminan? El plagio generado por IA es una realidad que exige nuevas formas de evaluación y verificación, así como una revisión profunda de los criterios de originalidad y honestidad académica.
Te puede interesar: ¿Quieres liderar con inteligencia artificial? Estas son las 3 recomendaciones de Giovanni Stella, exjefe de Google Colombia
Además, el uso indiscriminado de estas herramientas puede intensificar el riesgo de fraude académico, especialmente cuando estudiantes y docentes desconocen los principios de transparencia, veracidad y responsabilidad que deben guiar su aplicación. La IA no debe ser vista como un atajo, sino como un medio para potenciar el pensamiento crítico, la creatividad y la investigación rigurosa.
Desde la academia, es urgente asumir un rol activo en la regulación y orientación del uso de la IA. Esto implica liderar el debate sobre sus implicaciones, establecer marcos normativos claros, y acompañar a los estudiantes en el desarrollo de competencias digitales éticas. Regular no significa restringir, sino garantizar que la tecnología se utilice de manera responsable, respetando la privacidad de los datos, promoviendo el acceso equitativo y reconociendo la autoría legítima.
La IA tiene el potencial de democratizar el conocimiento, facilitar el aprendizaje personalizado y optimizar los procesos investigativos. Pero para que ese potencial se materialice de forma positiva, es necesario que su uso esté alineado con los valores fundamentales de la educación: la ética, la equidad, la creatividad genuina y la empatía.
Como equipo académico, reconocemos que las ventajas de la IA superan sus riesgos, siempre que estos sean identificados, regulados y gestionados adecuadamente. La clave está en entender que la tecnología no sustituye el juicio humano, sino que lo complementa. La IA debe ser una herramienta al servicio de los fines éticos de la educación, no un fin en sí misma.
En definitiva, el desafío no es elegir entre eficiencia y ética, sino encontrar un equilibrio que permita aprovechar el poder transformador de la tecnología sin comprometer los principios que sustentan la academia. Ignorar este debate sería renunciar a nuestra responsabilidad como educadores en una era digital que exige más reflexión que nunca.
Imagen: Generada con IA / ChatGPT