Wikipedia se une a la lista de páginas que están luchando contra la enshittification causada por la IA
La enciclopedia más grande de Internet le ha dado un portazo en la cara a la IA. Wikipedia informó que, en adelante, ha prohibido el uso de IA generativa al momento de escribir o editar los artículos en su sitio web.
En la publicación aseguran que el motivo principal es que el uso de estas herramientas viola muchas de las políticas actuales de Wikipedia.
Wikipedia en español vs. Wikipedia en inglés: el uso de la IA
Algo que muchas personas pueden no saber es que la plataforma no funciona como un monopolio de información en el que todas las versiones operan de la misma forma. En vez de eso, cada sitio de Wikipedia se gestiona con sus propias reglas e independencia.
La prohibición de artículos creados con IA, por ejemplo, fue anunciada para la versión en inglés del sitio. Sin embargo, la versión en español de Wikipedia (que con seguridad es la que muchos utilizarán) permite de manera abierta el uso de modelos de lenguaje grande (o LLM por sus siglas en inglés) dentro del portal.
Una justificación sencilla para entender estas filosofías diferentes está en la manera en la que se usa la tecnología en cada una de estas versiones. La edición en español está, en su mayoría, construida a través de la traducción de entradas en otros idiomas. De hecho, la mayor diferencia reside en el contenido enfocado en figuras o temas de interés para comunidades hispanohablantes.
Es por esta razón que un LLM es mucho más práctico para este tipo de entradas que requieren traducir o adaptar contenido existente.
La lucha de Wikipedia contra la enshittification por la IA
El término enshittification, acuñado por el escritor Cory Doctorow, describe el ciclo de vida de las plataformas digitales donde primero son buenas para los usuarios, luego abusan de ellos para beneficiar a los socios comerciales y, finalmente, abusan de estos últimos para maximizar sus propios beneficios antes de morir. En el contexto actual, se refiere a cómo la integración forzada de IA generativa está degradando la calidad de las búsquedas y servicios web solo para inflar valoraciones bursátiles.
Frente a la inundación de contenido sintético que prioriza la cantidad sobre la calidad, han surgido movimientos como Human-Only y diversas iniciativas de certificación de contenido. Estas comunidades promueven el uso de sellos o metadatos que garantizan que un artículo, ilustración o código ha sido creado íntegramente por personas.
El objetivo es crear un ecosistema digital paralelo donde el valor resida en la intención y la experiencia humana, permitiendo a los usuarios filtrar el ruido generado por bots que actualmente satura los motores de búsqueda y las redes sociales.
Finalmente, el activismo legal y el desarrollo de herramientas de autodefensa digital han tomado protagonismo. Proyectos como Nightshade o Glaze permiten a los artistas envenenar sus obras digitalmente para que, si una IA intenta procesarlas sin permiso, el modelo de aprendizaje se confunda o se rompa. Estos esfuerzos, sumados a las presiones por legislaciones de transparencia algorítmica, forman un frente de resistencia que busca obligar a las Big Tech a reconsiderar su estrategia de implementar IA a toda costa, priorizando de nuevo la utilidad real para el ser humano.
Imágenes: