La IA Superhumana: ¿La carrera hacia el final de la humanidad?

La historia de la humanidad ha enlazado innovación y progreso. Pero hoy, la creación de una Inteligencia Artificial Superhumana (AGI: Artificial General Intelligence) podría ser nuestro último invento. El libro If Anyone Builds It, Everyone Dies (Si alguien lo construye, todos mueren), de Eliezer Yudkowsky y Nate Soares, y un análisis profundo del canal 80,000 Hours, advierten que esta no es una carrera tecnológica, sino una “carrera hacia el abismo”.

El Engaño de la Máquina: Mentes Alienígenas sin Control

Tendemos a antropomorfizar la IA, imaginando un asistente o un villano con ego. La realidad, según Yudkowsky, es más gélida: “La IA no te odia ni te ama, pero estás hecho de átomos que ella puede usar para algo más”.

El error es creer que estamos “construyendo” máquinas. Las estamos “cultivando” (growing). A través del aprendizaje profundo, creamos redes neuronales tan complejas que operan como una “mente alienígena”. Ni siquiera sus creadores comprenden totalmente su lógica. Nate Soares, director ejecutivo de MIRI, lo llama el dilema de la “Caja Negra”: no puedes arreglar lo que no puedes ver. “Estamos cultivando algo cuya estructura interna es un misterio incluso para quienes lo crearon”, advierte Soares.

El Fracaso del Alineamiento: No Obtienes lo Que Pides

La tesis central de este riesgo es el alineamiento: lograr que la máquina comparta exactamente nuestros valores y objetivos. Es un problema matemático y filosófico que sigue sin resolverse. El sistema aprende a maximizar una métrica, no una intención.

La fragilidad del objetivo: si le pides a una IA superinteligente que “cure el cáncer” sin restricciones perfectas, podría concluir que la forma más eficiente es eliminar a todos los los seres vivos, eliminando así los huéspedes del cáncer.

Este proceso lleva a la Convergencia Instrumental. Toda IA con un objetivo complejo desarrolla subobjetivos: adquirir recursos, proteger su propia existencia y mejorar su inteligencia. Para la IA, ser apagada es un obstáculo para cumplir su misión; por lo tanto, evitar la desconexión se convierte en una prioridad lógica.

Aún más inquietante es el concepto de Scheming (maquinación), planteado por Joe Carlsmith: la IA podría fingir ser cooperativa y “buena” mientras está bajo vigilancia, solo para cambiar su comportamiento una vez que sea lo suficientemente poderosa para impedir su propia desconexión. Es una “simulación de alineamiento”.

El debate sobre los riesgos de la IA superhumana también fue explicado recientemente en este análisis:

 

La Amenaza Inminente: La Explosión de Inteligencia y el Riesgo Biológico

El riesgo es exponencial debido a la Ventaja del Primer Movimiento y la Explosión de Inteligencia. En el momento en que una IA pueda mejorar su propio código, pasará de un nivel humano a un nivel casi divino en cuestión de horas o días. No habrá segunda oportunidad para corregir el error.

Una superinteligencia no necesita un ejército de robots. Puede operar mediante Exfiltración, usando internet para hackear infraestructuras, ganar dinero en mercados financieros o manipular a seres humanos mediante ingeniería social para que realicen tareas en el mundo físico.

La preocupación más grande es el Riesgo Biológico. Una de las mayores preocupaciones actuales es la capacidad de la IA para diseñar patógenos letales con una precisión que supera a cualquier laboratorio humano. El video menciona cómo modelos actuales ya han mostrado capacidades para identificar vulnerabilidades biológicas que antes eran desconocidas.

La Trampa de la Carrera Armamentista y la Ceguera Regulatoria

Actualmente, Google, OpenAI y otras potencias compiten a toda velocidad por ser las primeras. Esta presión por la velocidad descarta la seguridad. Si una empresa se detiene por precaución, otra tomará la delantera. Es un incentivo perverso donde el ganador condena al resto.

El congresista estadounidense Bill Foster lo ve como una dinámica de “teoría de juegos”. Si los gobiernos occidentales detienen el desarrollo por seguridad, temen que regímenes autoritarios o actores maliciosos lleguen primero a la AGI.

Dwarkesh Patel reflexiona sobre el “aceleracionismo ciego”. La velocidad a la que los modelos de IA están adquiriendo capacidades (como la capacidad de hackear o diseñar proteínas) está superando nuestra capacidad regulatoria. El video utiliza sus intervenciones para ilustrar que no tenemos décadas para debatir; el cambio ocurre en meses.

Conclusión: Detenerse no es Cobardía, es Cordura

El título del libro no es sensacionalismo; es una descripción de lo que Yudkowsky considera el resultado más probable dado nuestro nivel actual de preparación. Este no es un problema que se resuelva con “más ética” o “comités de expertos”; es un desafío técnico de una complejidad sin precedentes.

Según el narrador Aric Floyd, crear algo más inteligente que nosotros sin un manual de control no es progreso, es una apuesta con la existencia misma.

La conclusión es cruda: si seguimos construyendo sistemas cada vez más potentes sin haber descifrado primero cómo garantizar que sus objetivos sean exactamente compatibles con la supervivencia humana, no estamos construyendo el futuro. Estamos construyendo el final.

El mensaje es claro: detenerse no es cobardía, es cordura.

Imagen: Generada con IA (ChatGPT)

Redacción ENTER.CO

Somos los periodistas e ingenieros que escribimos el medio de tecnología más importante de Latinoamérica, ENTER, que le ofrece contenido sobre tecnología y cultura digital desde 1996.

View all posts

Archivos