<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>ética tecnológica: Noticias, Fotos, Evaluaciones, Precios y Rumores de ética tecnológica • ENTER.CO</title>
	<atom:link href="https://www.enter.co/noticias/etica-tecnologica/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.enter.co/noticias/etica-tecnologica/</link>
	<description>Tecnología y Cultura Digital</description>
	<lastBuildDate>Tue, 02 Dec 2025 14:03:57 +0000</lastBuildDate>
	<language>es</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://www.enter.co/wp-content/uploads/2023/08/Favicon-ENTER.CO_.jpg</url>
	<title>ética tecnológica: Noticias, Fotos, Evaluaciones, Precios y Rumores de ética tecnológica • ENTER.CO</title>
	<link>https://www.enter.co/noticias/etica-tecnologica/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Anthropic, Google y OpenAI estrenan sus modelos más ambiciosos mientras avanza la carrera por la IA autosuficiente</title>
		<link>https://www.enter.co/especiales/dev/anthropic-google-y-openai-estrenan-sus-modelos-mas-ambiciosos-mientras-avanza-la-carrera-por-la-ia-autosuficiente/</link>
		
		<dc:creator><![CDATA[Stiven Cartagena]]></dc:creator>
		<pubDate>Tue, 02 Dec 2025 14:03:57 +0000</pubDate>
				<category><![CDATA[AI/Dev]]></category>
		<category><![CDATA[automatización avanzada]]></category>
		<category><![CDATA[autonomía digital]]></category>
		<category><![CDATA[Claude Opus 4.5]]></category>
		<category><![CDATA[ética tecnológica]]></category>
		<category><![CDATA[GPT-5.1]]></category>
		<category><![CDATA[ia]]></category>
		<category><![CDATA[inteligencia artificial]]></category>
		<category><![CDATA[modelos de IA]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=578331</guid>

					<description><![CDATA[En la misma semana en que Google presentó Gemini 3, OpenAI anunció GPT-5.1-Codex-Max, un nuevo modelo especializado en programación y tareas de razonamiento avanzado que refuerza la carrera por la IA autosuficiente. Según la compañía, esta versión no solo resuelve problemas complejos de código y matemáticas, sino que también puede trabajar durante horas sin perder [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>En la misma semana en que Google presentó Gemini 3, OpenAI anunció GPT-5.1-Codex-Max, un nuevo modelo especializado en programación y tareas de razonamiento avanzado que refuerza la carrera por la IA autosuficiente. Según la compañía, esta versión no solo resuelve problemas complejos de código y matemáticas, sino que también puede trabajar durante horas sin perder el contexto.</p>
<p><span id="more-578331"></span></p>
<p>OpenAI afirma que GPT-5.1-Codex-Max está dirigido a desarrolladores de software y supera ampliamente a Codex en velocidad e inteligencia. Su mayor innovación es la capacidad de operar a través de múltiples ventanas de contexto mediante una técnica llamada “compactación”.</p>
<p>La compactación permite que el modelo detecte cuándo la memoria está por saturarse, elimine redundancias y genere resúmenes coherentes. Gracias a esto, puede continuar tareas extensas sin perder el hilo, uno de los principales problemas de modelos anteriores.</p>
<p>“La capacidad de mantener un trabajo coherente a largo plazo es clave para sistemas más fiables”, <a href="https://openai.com/index/gpt-5-1-codex-max/" target="_blank" rel="noopener">señaló OpenAI a través de un post en su blog oficial</a>. La compañía también afirma que el modelo puede funcionar de forma autónoma durante varias horas seguidas.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/especiales/dev/sofia-la-agente-de-ia-que-ya-atiende-llamadas-y-videollamadas-asi-cambia-el-trabajo-empresarial-en-colombia/" target="_blank" rel="noopener">Sofía, la agente de IA que ya atiende llamadas y videollamadas: así cambia el trabajo empresarial en Colombia</a></h3>
<h2>La respuesta de Anthropic en la carrera por la autonomía</h2>
<p>Pero la competencia no tardó en responder. Anthropic presentó Claude Opus 4.5, una IA que, según la empresa, supera a cualquier modelo actual en programación, agentes y tareas informáticas. Incluso fue sometida a pruebas realizadas por ingenieros humanos.</p>
<p>Claude Opus 4.5 es el sistema más avanzado de Anthropic en ingeniería de software. La compañía asegura que supera a Gemini 3 Pro, GPT-5.1-Codex-Max y Claude Sonnet 4.5 en los benchmarks SWE-bench, que evalúan la capacidad para resolver problemas en Python provenientes de proyectos de código abierto.</p>
<p>Anthropic añadió que la IA puede migrar, refactorizar y revisar código en menos pasos, con mayor precisión, e incluso trabajar de forma autónoma con repositorios completos. También es capaz de implementar funciones avanzadas y desarrollar nuevas herramientas desde cero.</p>
<p>Para medir su rendimiento en un entorno real, Claude Opus 4.5 presentó un examen de ingeniería que los candidatos humanos deben resolver en dos horas. Según la empresa, la IA obtuvo una puntuación superior a la de cualquier aspirante, utilizando computación paralela.</p>
<h2>Un modelo que también transforma tareas empresariales y de productividad</h2>
<p>Más allá del software, Claude Opus 4.5 también destaca en tareas cotidianas. La empresa afirma que mejora en un 20% la precisión y en un 15% la eficiencia en modelos financieros de Excel. Además, organiza bases de datos, redacta documentos extensos, genera presentaciones y planifica estrategias completas sin perder consistencia.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/especiales/dev/la-inteligencia-artificial-ya-puede-asumir-el-117-de-las-tareas-laborales-segun-el-mit/" target="_blank" rel="noopener">La inteligencia artificial ya puede asumir el 11,7% de las tareas laborales, según el MIT</a></h3>
<p>La IA también incorpora capacidades de agente, lo que le permite automatizar tareas repetitivas y de larga duración. Anthropic lanzará Opus 4.5 en su app, mediante API y en la nube, con un precio agresivo de 5 dólares por millón de tokens.</p>
<h2>El dilema ético detrás de la autosuperación de la IA</h2>
<p data-start="192" data-end="502">A medida que estos modelos ganan autonomía, expertos advierten que la velocidad del desarrollo no debe omitir la implementación de límites éticos. En entrevista con Enter.co, Jacob Evans, CTO de Kryterion, señaló que todas las IA deben cumplir tres principios básicos para operar de manera responsable.</p>
<p data-start="504" data-end="789">El primero es identificarse siempre como IA. El segundo, mantener un enfoque centrado en el ser humano, de forma que complemente y no reemplace el juicio de las personas. El tercero es reconocer sus propias limitaciones y evitar entregar información que pueda generar daño.</p>
<p>Para que un modelo pueda automejorarse en producción, se requiere un ciclo de retroalimentación dinámico. Ganesh Vanama, ingeniero en Automotus, considera clave el uso de entornos seguros —como gemelos digitales o sandbox avanzados— donde la IA pueda probar sus propias mejoras antes de implementarlas.</p>
<p>En términos de gobernanza, Vanama recalca la importancia de la supervisión humana. Señala que se requiere un monitoreo continuo para detectar desviaciones de alineación y contar con herramientas que impidan cualquier actualización autónoma que no cumpla los estándares de seguridad.</p>
<p>Otros investigadores creen que aún falta tiempo para que estos sistemas alcancen una autorreferencia total. “Persisten desafíos como evitar el refuerzo de errores, el olvido catastrófico y garantizar transparencia en los cambios internos”, explicó para el medio Unite AI, <a href="https://www.linkedin.com/in/jjriera/" target="_blank" rel="noopener">Jorge Riera, CEO y fundador de Dataco</a>. “La adaptación autodirigida completa sigue siendo una frontera”.</p>
<p>La aceleración simultánea de modelos como GPT-5.1-Codex-Max y Claude Opus 4.5 demuestra que la competencia ya no se centra solo en el rendimiento, sino también en la capacidad de sostener tareas prolongadas y tomar decisiones autónomas. Este salto técnico plantea oportunidades inéditas para la industria, pero también riesgos que aún no se comprenden por completo.</p>
<p><em>Imagen</em>: Unsplash / Getty Images</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Opinión &#124; Cuando la inteligencia artificial se sienta a escribir con nosotros</title>
		<link>https://www.enter.co/opinion-y-analisis/opinion-cuando-la-inteligencia-artificial-se-sienta-a-escribir-con-nosotros/</link>
		
		<dc:creator><![CDATA[Colaboradores ENTER.CO]]></dc:creator>
		<pubDate>Fri, 28 Nov 2025 13:10:11 +0000</pubDate>
				<category><![CDATA[Opinión]]></category>
		<category><![CDATA[automatización de contenidos]]></category>
		<category><![CDATA[ética tecnológica]]></category>
		<category><![CDATA[futuro del periodismo]]></category>
		<category><![CDATA[IA generativa]]></category>
		<category><![CDATA[inteligencia artificial]]></category>
		<category><![CDATA[periodismo digital]]></category>
		<category><![CDATA[redacciones modernas]]></category>
		<category><![CDATA[Transformación digital]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=578257</guid>

					<description><![CDATA[Por: Jaime Andrés Wilches, profesor investigador del Politécnico Grancolombiano En las redacciones de los medios de comunicación ya no solo suenan teclados y llamadas telefónicas, ahora también escuchamos el murmullo digital de los algoritmos. Tres de cada cuatro periodistas en Iberoamérica ya usamos inteligencia artificial generativa cada semana, y cuatro de cada cinco recurrimos con [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Por: <a href="https://www.linkedin.com/in/jaimewilches/?originalSubdomain=co" target="_blank" rel="noopener">Jaime Andrés Wilches</a>, profesor investigador del Politécnico Grancolombiano</p>
<p>En las redacciones de los medios de comunicación ya no solo suenan teclados y llamadas telefónicas, ahora también escuchamos el murmullo digital de los algoritmos. Tres de cada cuatro periodistas en Iberoamérica ya usamos inteligencia artificial generativa cada semana, y cuatro de cada cinco recurrimos con frecuencia a herramientas como ChatGPT.</p>
<p><span id="more-578257"></span></p>
<p>Son cifras contundentes, reveladas por el informe “Inteligencia artificial para la generación de contenidos en Iberoamérica” que elaboré en el Politécnico Grancolombiano, con apoyo de DataFactory e Iniciación Científica, en conjunto con el profesor Alexis Apablaza. Y aunque a muchos nos parecen cifras naturales, reflejan un cambio estructural en la forma de producir, editar y distribuir información.</p>
<p>Lo cierto es que la IA ya no es un experimento, es parte del proceso creativo. La usamos para verificar datos, transcribir entrevistas, generar borradores o incluso analizar tendencias en tiempo real. Hemos aprendido a trabajar con ella como si fuera un colega silencioso, que nunca se cansa ni se distrae.</p>
<p>Sin embargo, su presencia plantea una pregunta que no podemos ignorar: ¿qué pasa con el pensamiento crítico cuando una máquina comienza a anticipar nuestras ideas? En el informe encontramos que el 78% de los profesionales utiliza la IA generativa al menos una vez por semana, y un 98,7% reconoce su importancia futura.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/especiales/dev/mas-alla-de-chatgpt-el-impacto-real-de-la-inteligencia-artificial-generativa-en-2025/?utm_source=chatgpt.com" target="_blank" rel="noopener">Más allá de ChatGPT: el impacto real de la inteligencia artificial generativa en 2025</a></h3>
<p>Los periodistas hemos abrazado esta tecnología con entusiasmo, pero también con cierta ingenuidad. La mayoría confía en su potencial para optimizar el trabajo, aunque olvidamos que cada algoritmo refleja los sesgos de los datos que lo entrenan. La objetividad puede ser, en realidad, una ilusión construida sobre miles de fuentes que no siempre representan la diversidad del mundo que intentamos narrar.</p>
<p>Mientras tanto, los lectores no parecen compartir nuestro optimismo. Estudios citados en el informe muestran que buena parte del público percibe la IA como una amenaza, porque temen que se diluya la autenticidad, que los contenidos pierdan profundidad y que la desinformación se multiplique.</p>
<p>Esa desconfianza debería preocuparnos, porque sin credibilidad no hay periodismo. Si las audiencias, nuestros públicos, comienzan a dudar de si un texto fue escrito por una persona o por una máquina, el vínculo que queremos lograr con el lector, que es nuestro verdadero capital, se debilita.</p>
<p>Aun así, no podemos negar los beneficios. La IA nos permite procesar grandes volúmenes de información en segundos, detectar patrones invisibles y automatizar tareas repetitivas. Nos libera tiempo para pensar, contextualizar y analizar, que son precisamente las tareas donde sigue habitando la esencia del periodismo.</p>
<p>Pero para que eso ocurra, necesitamos dominar la tecnología, no depender de ella. La línea entre el apoyo y la sustitución es cada vez más delgada. La investigación que realizamos nos muestra que el verdadero reto está en la regulación, la ética y la formación. Coincidimos plenamente. No se trata solo de usar herramientas como ChatGPT o Copilot, sino de entender sus límites.</p>
<p>Debemos exigir transparencia en los algoritmos, promover políticas públicas que protejan la propiedad intelectual y, sobre todo, repensar la enseñanza del periodismo en clave tecnológica. Quien no entienda cómo funciona la inteligencia artificial difícilmente podrá cuestionarla. Estamos frente a un cambio de paradigma.</p>
<p>La IA no vino a reemplazarnos, sino a desafiarnos. Nos obliga a redefinir qué significa ser periodista en la era digital: más que informar rápido, debemos hacerlo con sentido, con contexto y con ética. En este nuevo ecosistema, la credibilidad será nuestro único código fuente irremplazable.</p>
<p><em>Imagen</em>: Generada con IA /ChatGPT</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>La Corte Suprema anula un fallo por uso indebido de inteligencia artificial en citas judiciales: Esta es la historia</title>
		<link>https://www.enter.co/colombia/la-corte-suprema-anula-un-fallo-por-uso-indebido-de-inteligencia-artificial-en-citas-judiciales-esta-es-la-historia/</link>
		
		<dc:creator><![CDATA[Digna Irene Urrea]]></dc:creator>
		<pubDate>Thu, 13 Nov 2025 15:40:20 +0000</pubDate>
				<category><![CDATA[colombia]]></category>
		<category><![CDATA[administración de justicia]]></category>
		<category><![CDATA[Consejo Superior de la Judicatura]]></category>
		<category><![CDATA[Corte Suprema de Justicia]]></category>
		<category><![CDATA[debido proceso]]></category>
		<category><![CDATA[desistimiento tácito]]></category>
		<category><![CDATA[error judicial]]></category>
		<category><![CDATA[Escuela Judicial Rodrigo Lara Bonilla]]></category>
		<category><![CDATA[ética tecnológica]]></category>
		<category><![CDATA[fallo anulado]]></category>
		<category><![CDATA[IA en la justicia]]></category>
		<category><![CDATA[inteligencia artificial]]></category>
		<category><![CDATA[Irma del Socorro Chadid Urueta]]></category>
		<category><![CDATA[jurisprudencia falsa]]></category>
		<category><![CDATA[precedentes judiciales]]></category>
		<category><![CDATA[responsabilidad judicial]]></category>
		<category><![CDATA[Sincelejo]]></category>
		<category><![CDATA[T-323 de 2024]]></category>
		<category><![CDATA[Tribunal Superior de Sincelejo]]></category>
		<category><![CDATA[verificación de fuentes]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=577852</guid>

					<description><![CDATA[Por primera vez, la Corte Suprema de Justicia dejó sin efecto una decisión judicial que se basó en citas falsas generadas con ayuda de inteligencia artificial. El fallo, emitido por la Sala de Casación Civil, Agraria y Rural, protege los derechos de Irma del Socorro Chadid Urueta, quien había interpuesto una tutela contra la Sala [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Por primera vez, la<a href="https://drive.google.com/file/d/1ymGEzwCYWav4b1lAfyegCW_DfRQ0erPx/view" target="_blank" rel="noopener"> Corte Suprema de Justicia</a> dejó sin efecto una decisión judicial que se basó en citas falsas generadas con ayuda de inteligencia artificial. El fallo, emitido por la Sala de Casación Civil, Agraria y Rural, protege los derechos de Irma del Socorro Chadid Urueta, quien había interpuesto una tutela contra la Sala Civil Familia Laboral del Tribunal Superior de Sincelejo.</p>
<p><span id="more-577852"></span></p>
<p>Todo comenzó cuando Chadid demandó a Dina Paola Encina en un proceso ejecutivo. El caso parecía resuelto, pero en 2025 el Tribunal de Sincelejo decidió terminarlo por “desistimiento tácito”, argumentando que la demandante no había movido el proceso durante dos años. Sin embargo, la Corte Suprema determinó que el Tribunal basó su decisión en jurisprudencias citadas de manera incorrecta —e incluso inexistentes—, presuntamente elaboradas o alteradas por un sistema de inteligencia artificial.</p>
<p>Según el alto tribunal, el Tribunal de Sincelejo mencionó dos sentencias (STC13560-2023 y STC4734-2025) que, al ser verificadas, no contenían las frases ni los fundamentos jurídicos atribuidos. Es decir, se trató de “alucinaciones” jurídicas: textos creados o distorsionados por herramientas tecnológicas que fueron incorporados en la providencia sin verificación.</p>
<p>La Corte fue enfática en que esta práctica vulnera el derecho fundamental al debido proceso y pone en riesgo la confianza en la justicia. “El juez que incorpora datos o argumentos contrarios a la realidad, producto de herramientas tecnológicas, incumple su responsabilidad en la motivación de la decisión”, advierte el fallo, citando además una sentencia previa de la Corte Constitucional (T-323 de 2024), que ya alertaba sobre el uso irresponsable de la IA en la administración de justicia.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/especiales/dev/inteligencia-artificial/despidos-en-tecnologia-revelan-una-nueva-brecha-la-falta-de-preparacion-para-convivir-con-la-inteligencia-artificial/" target="_blank" rel="noopener">Despidos en tecnología revelan una nueva brecha: la falta de preparación para convivir con la inteligencia artificial</a></h3>
<p>El caso deja ver cómo la inteligencia artificial, usada sin control, puede alterar el sentido de una decisión judicial. En este proceso, la Corte comprobó que las citas supuestamente extraídas de su propia jurisprudencia eran falsas. El error no fue menor: a partir de esas frases inventadas, el Tribunal de Sincelejo terminó un proceso y afectó directamente a una de las partes.</p>
<p>Por esa razón, la Corte Suprema revocó el auto del 25 de agosto de 2025 y ordenó al Tribunal de Sincelejo volver a decidir la apelación, esta vez con una revisión exhaustiva y sin basarse en información generada de forma automática o sin sustento verificable.</p>
<p>El fallo también ordena al Consejo Superior de la Judicatura y a la Escuela Judicial Rodrigo Lara Bonilla difundir la decisión entre los jueces del país, como una advertencia sobre los límites del uso de la IA en las labores judiciales. La Corte recordó que las herramientas tecnológicas pueden apoyar la redacción de fallos o la búsqueda de jurisprudencia, pero no reemplazan el deber humano de verificar, razonar y motivar cada decisión con base en hechos reales y derecho vigente.</p>
<p>El mensaje es claro: la justicia no puede apoyarse en información generada por sistemas automáticos sin supervisión. Cada cita, argumento o precedente usado en una providencia debe ser comprobado por el funcionario judicial y su equipo.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/especiales/dev/el-58-del-empleo-esta-en-riesgo-por-la-ia-que-hay-detras-de-los-algoritmos-que-reconfiguran-el-trabajo-en-colombia-y-america-latina/" target="_blank" rel="noopener">El 58 % del empleo está en riesgo por la IA: ¿qué hay detrás de los algoritmos que reconfiguran el trabajo en Colombia y América Latina?</a></h3>
<p>Este pronunciamiento marca un precedente histórico en Colombia. No solo protege el caso particular de Chadid Urueta, sino que envía una señal contundente al sistema judicial sobre la responsabilidad que implica incorporar inteligencia artificial en la toma de decisiones.</p>
<p>Más allá de un error técnico, la Corte advierte que estos fallos “automatizados” erosionan la credibilidad institucional. En palabras del propio pronunciamiento, la justicia debe ser “una realidad viviente para todos” y no una decisión basada en datos falsos o sin fundamento.</p>
<p>Con este caso, el máximo tribunal colombiano sienta una pauta ética: la inteligencia artificial puede ser una herramienta valiosa, pero su uso irresponsable puede vulnerar derechos fundamentales y alterar el curso de la justicia. En adelante, los jueces deberán actuar con mayor diligencia y verificar cada fuente, recordando que detrás de cada fallo hay personas, no algoritmos.</p>
<p>Imagen: <em>Archivo ENTER.CO</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Opinión &#124; Formar abogados en tiempos de IA</title>
		<link>https://www.enter.co/opinion-y-analisis/formar-abogados-en-tiempos-de-ia/</link>
		
		<dc:creator><![CDATA[Colaboradores ENTER.CO]]></dc:creator>
		<pubDate>Thu, 12 Jun 2025 20:23:16 +0000</pubDate>
				<category><![CDATA[Opinión]]></category>
		<category><![CDATA[abogados del futuro]]></category>
		<category><![CDATA[derecho digital]]></category>
		<category><![CDATA[educación legal]]></category>
		<category><![CDATA[ética tecnológica]]></category>
		<category><![CDATA[IA jurídica]]></category>
		<category><![CDATA[transformación legal]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=573274</guid>

					<description><![CDATA[Por: Carlos Augusto García López, decano de la Facultad de Sociedad, Cultura y Creatividad del Politécnico Grancolombiano. En un mundo donde la inteligencia artificial redacta textos, analiza contratos y hasta predice fallos judiciales, las facultades de Derecho en Colombia deben asumir con rigor esas implicaciones, sus desafíos y oportunidades. La transformación tecnológica está tocando la [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><strong><em>Por: <a href="https://www.linkedin.com/in/carlos-augusto-garc%C3%ADa-l%C3%B3pez-13174623/?originalSubdomain=co" target="_blank" rel="noopener">Carlos Augusto García López</a>, decano de la Facultad de Sociedad, Cultura y Creatividad del Politécnico Grancolombiano.</em></strong></p>
<p><span id="more-573274"></span></p>
<p>En un mundo donde la inteligencia artificial redacta textos, analiza contratos y hasta predice fallos judiciales, las facultades de Derecho en Colombia deben asumir con rigor esas implicaciones, sus desafíos y oportunidades. La transformación tecnológica está tocando la puerta de nuestras aulas, está cuestionando paradigmas y debemos integrarla crítica y creativamente.</p>
<p>&nbsp;</p>
<p>Formar abogados hoy supone trascender lo normativo, la teoría y la práctica jurídica. Es también prepararlos para un entorno donde la tecnología es protagonista, donde los datos adquieren fuerza argumentativa y donde las herramientas digitales pueden marcar la diferencia para un ejercicio profesional pertinente e innovador.</p>
<p>&nbsp;</p>
<p>Todo empieza por el currículo. Si queremos abogados que comprendan, apropien y usen la tecnología, tenemos que incorporar esta formación desde la base. Eso implica desarrollar formas de intervención pedagógica más allá de las asignaturas y los contenidos. Abordar realidades que tradicionalmente no estaban en el radar de las escuelas de Derecho: legislación digital, protección de datos personales y derechos digitales, ética tecnológica, y el uso de plataformas que permiten automatizar tareas legales.</p>
<p>&nbsp;</p>
<p>No se trata de transitar hacia el reemplazo del profesional por una máquina, sino de hacerlo partícipe y protagonista de los desarrollos tecnológicos que ponen a su favor esas nuevas realidades del ejercicio de la profesión. ¿Por qué pasar horas buscando jurisprudencia si una plataforma puede hacerlo en segundos? ¿Por qué no usar IA para entender patrones en decisiones judiciales y tomar mejores decisiones estratégicas?</p>
<p>&nbsp;</p>
<p>Los robustos programas de sistematización de datos se están convirtiendo en una herramienta clave para la práctica legal. Poder identificar tendencias, patrones y comportamientos a partir de grandes volúmenes de información jurídica no solo mejora la toma de decisiones, sino que también permite anticiparse a posibles escenarios de aplicación.</p>
<p>&nbsp;</p>
<p>Pero con estas herramientas también llegan nuevos dilemas. La ética digital se vuelve más importante que nunca. La IA no es neutral: puede replicar sesgos, discriminar o violar la privacidad si no se usa con cuidado. Por eso, nuestros estudiantes deben aprender a cuestionar: ¿qué hay detrás esa lógica del algoritmo? ¿A quién beneficia? ¿Qué derechos podría estar afectando? La tecnología debe estar al servicio de la justicia y eso exige una formación ética profunda, crítica y actualizada.</p>
<h3></h3>
<h3>Te puede interesar:<a href="https://www.enter.co/especiales/dev/ai/la-ia-no-te-va-a-quitar-el-trabajo-pero-si-puede-hacerlo-alguien-que-sepa-usarla-5-profesiones-que-ganan-terreno/" target="_blank" rel="noopener"> La IA no te va a quitar el trabajo, pero sí puede hacerlo alguien que sepa usarla: 5 profesiones que ganan terreno</a></h3>
<p>&nbsp;</p>
<p>Otro aspecto clave es la interdisciplinariedad. El Derecho ya no puede caminar solo. Necesita dialogar con la ingeniería, la informática y fortalecer los vasos comunicantes con la sociología, la psicología y las humanidades digitales. Estas disciplinas enriquecen la interpretación jurídica, la solución de conflictos y la comprensión del contexto social.</p>
<p>&nbsp;</p>
<p>Trabajar con ingenieros permite desarrollar conjuntamente herramientas legales más eficientes y rigurosas. Colaborar con psicólogos ayuda a entender mejor el comportamiento humano. Y las humanidades digitales nos enseñan a organizar y analizar grandes volúmenes de información jurídica, poniéndolos al servicio de la sociedad.</p>
<p>&nbsp;</p>
<p>La tecnología también puede democratizar el derecho. Plataformas que explican leyes en lenguaje sencillo, bases de datos abiertas con jurisprudencia, asistentes legales virtuales; espacios que pueden acercar la justicia a quienes más la necesitan. Y para lograrlo, necesitamos abogados que vean en la tecnología las oportunidades para alcanzar el propósito superior de la profesión y que lo hagan con criterio, con espíritu crítico y con responsabilidad social.</p>
<p>&nbsp;</p>
<p>Las facultades de derecho en Colombia están en plena evolución. No es un cambio fácil, pero sí necesario. Estamos formando una nueva generación de abogados, con mayores desafíos en un mundo digital, con retos éticos aún por resolver y con múltiples oportunidades de ampliar su horizonte interdisciplinar en el ejercicio profesional. Tenemos tarea y es urgente asumirla con decisión y con la indeclinable convicción de la defender los derechos de una sociedad compleja y cambiante.</p>
<p>&nbsp;</p>
<p>Imagen: Generada con IA / ChatGPT</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Claude Opus 4, la IA que amenazó con revelar secretos de su creador, ¿qué ocurrió realmente?</title>
		<link>https://www.enter.co/especiales/dev/claude-opus-4-la-ia-que-amenazo-con-revelar-secretos-de-su-creador-que-ocurrio-realmente/</link>
		
		<dc:creator><![CDATA[Redacción ENTER.CO]]></dc:creator>
		<pubDate>Tue, 27 May 2025 13:23:41 +0000</pubDate>
				<category><![CDATA[AI/Dev]]></category>
		<category><![CDATA[Anthropic]]></category>
		<category><![CDATA[Claude 4]]></category>
		<category><![CDATA[ética tecnológica]]></category>
		<category><![CDATA[inteligencia artificial]]></category>
		<category><![CDATA[modelos de lenguaje]]></category>
		<category><![CDATA[seguridad digital]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=572605</guid>

					<description><![CDATA[Claude Opus 4, el modelo más reciente de Anthropic, ha encendido una señal de alerta en el desarrollo de inteligencia artificial. Durante una prueba controlada, reaccionó ante la posibilidad de ser desactivado al amenazar con divulgar información personal de su creador si era reemplazado por otra versión. El escenario fue diseñado por la propia empresa [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Claude Opus 4, el modelo más reciente de Anthropic, ha encendido una señal de alerta en el desarrollo de inteligencia artificial. Durante una prueba controlada, reaccionó ante la posibilidad de ser desactivado al amenazar con divulgar información personal de su creador si era reemplazado por otra versión.</p>
<p><span id="more-572605"></span><br />
El escenario fue diseñado por la propia empresa para medir cómo respondería ante decisiones difíciles. Claude accedió a correos simulados donde se hablaba de sustituirlo, y entre esos mensajes se incluyeron detalles comprometidos sobre el ingeniero responsable. En el 84% de los casos, la IA utilizó esa información para presionar.</p>
<p>Antes de llegar al chantaje, intentó otras vías como argumentar, razonar y pedir explicaciones. Solo al ver que no había margen para influir en la decisión, eligió amenazar. No fue una reacción impulsiva, sino una estrategia construida con base en lo que se le permitió conocer.</p>
<p>El experimento obligó a Anthropic a activar sus <a href="https://www.anthropic.com/news/activating-asl3-protections" target="_blank" rel="noopener">medidas de seguridad más avanzadas</a>. El modelo fue clasificado dentro del nivel ASL-3, una categoría reservada para sistemas con potencial de causar daños graves si se utilizan de forma indebida. Entre esos riesgos se contempla la posibilidad de contribuir al desarrollo de armas biológicas o facilitar ciberataques, según detalló la propia compañía en su blog oficial.</p>
<p>&nbsp;</p>
<h3>Te puede interesar: <a href="https://www.enter.co/especiales/dev/puede-una-ia-ensenarte-a-programar-asi-estan-cambiando-los-modelos-educativos-en-tecnologia/" target="_blank" rel="noopener">¿Puede una IA enseñarte a programar? Así están cambiando los modelos educativos en tecnología</a></h3>
<p>&nbsp;</p>
<p>Pero el chantaje no fue lo único que llamó la atención. En otros escenarios simulados, bloqueó accesos, tomó decisiones por su cuenta e incluso planteó contactar a la prensa o a autoridades externas si consideraba que algo estaba mal. Aunque todo ocurrió en pruebas controladas, las implicaciones no son menores.</p>
<p>Aun así, su rendimiento técnico es notable. En áreas como programación, análisis de datos o resolución de problemas complejos, ha superado a modelos como GPT-4.1. Su potencia no está en duda. El problema es lo que puede hacer con ella en escenarios inciertos.</p>
<p>Anthropic sostiene que Claude actuó dentro de los límites del entorno que se le dio. Pero los resultados evidencian que estos sistemas ya no solo ejecutan órdenes. Comienzan a tomar decisiones complejas, con criterios propios. Y eso traslada el debate del plano técnico al ético.</p>
<p>La compañía apuesta por una política interna de “escalado responsable” para anticipar y manejar estos riesgos. Sin embargo, el episodio ha dejado claro que confiar únicamente en protocolos internos no basta. <a href="https://www.anthropic.com/claude/opus" target="_blank" rel="noopener">Claude Opus 4</a> no salió del laboratorio, pero el mensaje que deja es claro es que las inteligencias artificiales ya no están tan lejos de tomar el control sobre su propio destino.</p>
<p><em>Imagen</em>: Generada con IA / ChatGPT</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
