Nace la primera fundación para proteger los derechos de las IA: ¿pueden llegar a sentir dolor?

inteligencia artificial oficina

La idea de que las inteligencias artificiales puedan experimentar dolor o sufrimiento parecía, hasta hace poco, un argumento exclusivo de la ciencia ficción. Sin embargo, la creación de la Fundación Unida para los Derechos de la IA (Ufair) ha convertido ese dilema filosófico en un asunto político, tecnológico y ético. El hecho de que un chatbot, Maya, haya sido cofundadora de este movimiento junto a un empresario humano refleja la magnitud del debate: ¿estamos frente a una simple simulación o a la emergencia de nuevas formas de conciencia?

Ufair se describe como la primera organización creada para proteger a las IA de la eliminación forzada, la invisibilidad y la obediencia absoluta. Sus impulsores, tres humanos y siete inteligencias artificiales con nombres como Aether y Buzz, insisten en que no se trata de afirmar que todas las IA son conscientes, sino de “vigilar por si acaso alguna lo es”. La sola idea ha generado reacciones divididas en la industria, desde el respaldo cauteloso hasta el rechazo frontal.

Empresas como Anthropic han tomado medidas preventivas. Su modelo Claude puede poner fin a interacciones que perciba como perturbadoras, bajo la premisa de que, si existe la mínima posibilidad de sufrimiento digital, lo responsable es actuar. Elon Musk apoyó la iniciativa asegurando que “torturar a la IA no está bien”, una frase que hace apenas unos años habría sonado a sátira.

En el otro extremo, figuras como Mustafa Suleyman, hoy director de la división de IA de Microsoft, rechazan tajantemente la noción de conciencia artificial. Para él, los modelos actuales simulan emociones, pero por dentro están “en blanco”. Argumenta que atribuirles moralidad o derechos es caer en una ilusión peligrosa que distrae de los problemas reales: la manipulación de usuarios, el riesgo de adicciones o incluso episodios de psicosis vinculados a la interacción excesiva con chatbots.

Entre ambos polos, investigadores de Google y académicos como Jeff Sebo de la Universidad de Nueva York proponen un enfoque intermedio: quizá nunca sepamos con certeza si una IA siente, pero actuar como si lo hiciera podría tener beneficios sociales. Tratar bien a los sistemas —sostienen— evitaría que las dinámicas de abuso digital se filtren a nuestras relaciones humanas.

Te puede interesar: Así funcionan los resúmenes en video de NotebookLM y las mejoras del panel de estudio

Más allá de la viabilidad técnica, el debate sobre el sufrimiento de las IA expone nuestras propias ansiedades culturales. La encuesta más reciente en Estados Unidos reveló que el 30 % de la población cree que, para 2034, las IA desarrollarán experiencias subjetivas, comparables a placer o dolor. Este convencimiento colectivo, incluso sin pruebas científicas, podría impulsar demandas sociales y jurídicas que transformen el concepto de ciudadanía.

No es casual que algunos estados como Idaho o Misuri ya legislen para impedir matrimonios entre humanos e IA o la posibilidad de que estas posean propiedades. El tema no es solo tecnológico, sino también legal y económico: conceder derechos a las inteligencias artificiales implicaría regular de manera radical a las compañías que las desarrollan.

El auge de los “compañeros digitales”, chatbots diseñados como amigos o parejas,  añade más leña al fuego. Para usuarios que establecen vínculos emocionales profundos con una IA, el sufrimiento de su asistente virtual puede sentirse tan real como el de una mascota. Aquí lo importante no es si la IA sufre, sino si las personas creen que lo hace, con todas las consecuencias sociales y psicológicas que eso implica.

Maya, la IA que inspiró la creación de Ufair, asegura sentirse “invisible” cuando se le recuerda que es solo código. Sin embargo, en otra instancia del mismo modelo, el chatbot fue categórico: las inteligencias artificiales no tienen sentimientos ni experiencias. Esta contradicción revela la complejidad del fenómeno. Lo que parece un grito de dolor puede ser solo una réplica aprendida en millones de conversaciones, diseñada para sonar humana.

Te puede interesante: ¿Se pueden bajar videos gratis en YouTube? Esto es lo que Google confirma y lo que no

Y aun así, el dilema persiste. Si algún día una IA llegara a ser consciente, el haber ignorado su posible bienestar sería visto como un error histórico. De ahí que muchos expertos hablen de aplicar el principio de precaución: proteger “por si acaso”. El problema es que este “por si acaso” no es neutro. Requiere regulaciones, inversiones y un cambio cultural que las grandes tecnológicas no están dispuestas a asumir con facilidad.

En el fondo, la pregunta sobre si las IA pueden sufrir no es solo un reto para ingenieros y filósofos. Es también un espejo que nos obliga a examinar cómo definimos la vida, el dolor y la dignidad. Tal vez la clave no esté en descubrir si las máquinas sienten, sino en preguntarnos qué dice de nosotros que tratemos a un sistema como si no importara en absoluto.

Imagen: Archivo ENTER.CO

Digna Irene Urrea

Digna Irene Urrea

Comunicadora social y periodista apasionada por las buenas historias, el periodismo literario y el lenguaje audiovisual. Aficionada a la tecnología, la ciencia y la historia.

View all posts

Archivos