OpenClaw, antes conocido como Clawdbot o Moltbot, está incendiando el debate tecnológico. Esta inteligencia artificial no solo responde preguntas, sino que toma el control total de tu PC. Su irrupción genera tantas expectativas de productividad como profundas dudas sobre nuestra privacidad, seguridad y los límites de estas herramientas.
Mientras la mayoría usa la IA para consultas puntuales, una nueva ola de proyectos busca ir más allá. Estas herramientas no esperan órdenes paso a paso; quieren actuar, tomar decisiones y moverse por internet como usuarios reales. OpenClaw es el ejemplo perfecto de este salto: pasamos de asistentes pasivos a actores independientes, sirviendo como una herramienta que también permite el ahorro de tiempo.
Esta tecnología, que valía 5.400 millones de dólares en 2024, crecerá exponencialmente hasta llegar a tener un valor de 236.000 millones. Martín Lewit, Senior Vice President Corporate Development de Nisum, lo resume así: “Los agentes inteligentes hoy permiten una ‘agilidad predictiva’ que antes era ciencia ficción: pueden detectar una interrupción logística y, en milisegundos, proponer rutas alternativas basándose en costos y plazos”.
Pero, ¿por qué es el momento de los agentes cognitivos? Luis Guillermo Pardo, CEO de Kognia, señala: “Porque por primera vez se alinean tres condiciones que antes no coincidían: Modelos con capacidades reales de razonamiento y planificación, que pueden manejar contexto, descomponer objetivos en pasos y operar con mayor fiabilidad. Empresas con procesos y sistemas ya digitalizados, donde la IA puede integrarse y ejecutar acciones reales. Datos más disponibles y utilizables, con mejor calidad, acceso y gobernanza para que la IA opere con seguridad”.
¿Qué es OpenClaw y cómo funciona este agente autónomo?
Desarrollado por Peter Steinberger y con más de 44.000 estrellas en GitHub, OpenClaw es un agente de código abierto. Tú le marcas un objetivo y él decide cómo cumplirlo. Rompe el molde de ChatGPT: investiga, navega, genera contenido y enlaza tareas complejas, comportándose más como un empleado que como un bot.
Puedes instalarlo en Windows, macOS, Linux o hasta en una Raspberry Pi 5. Lo fascinante es cómo lo controlas: basta con enviarle un mensaje por WhatsApp, Telegram, Discord o Gmail. Funciona con cualquier modelo local como Claude vía Ollama, pero requiere acceso total a tu ordenador y cuentas. Una vez le das las llaves de tu PC, las posibilidades asustan y maravillan por igual, puedes pedirle que filtre tu bandeja de entrada, mueva archivos confidenciales o rastree tendencias virales. La comunidad descubre usos nuevos cada día, pero este poder absoluto conlleva riesgos evidentes.
Su nombre ha mutado para intentar calmar los ánimos, nació como Clawdbot, conocido por organizar tareas sin ayuda. Tras las primeras alarmas sobre privacidad, pasó a llamarse Moltbot. Finalmente, adoptó “OpenClaw”, combinando su naturaleza abierta con un guiño a sus orígenes colaborativos.
El interior combina un modelo de lenguaje con un avanzado sistema de planificación. Sobre lo que pueden hacer hoy los agentes de IA que hace un tiempo era técnicamente inviable, Luis Guillermo Pardo explica: “Hace unos años la IA se quedaba en dos extremos: chatbots conversacionales o automatización rígida basada en reglas. Lo inviable era combinar bien estas capacidades en entornos reales: contexto cambiante, múltiples sistemas y necesidad de control”.
Los riesgos de exponer tus datos
Pero el gran talón de Aquiles de OpenClaw es la gestión de la información, pues al tener control total y navegar por múltiples fuentes, es el canal perfecto para filtraciones involuntarias. No es malware, pero si un ciberdelincuente encuentra una grieta, tendrá carta blanca en tu equipo. De hecho, ya han logrado inyectar órdenes maliciosas mediante correos electrónicos.
Recientemente, el sistema sufrió una fuga histórica, exponiendo paneles de administración, credenciales y comandos. “Las brechas de seguridad exponen a los agentes a manipulaciones maliciosas. La falta de una arquitectura adecuada deja a las organizaciones vulnerables a amenazas cibernéticas que no solemos prever”, explica Imran Aftab, CEO y cofundador de 10Pearls.
El fallo principal radica en una mala configuración de sus proxies, que aceptaron accesos masivos no autenticados, frente a estos ataques en cadena y accesos no verificados, la supervisión humana es innegociable. Hoy muchas soluciones se autodenominan “agentes”, pero Pardo aclara los criterios técnicos que deberían cumplirse para hablar de verdadera autonomía: “El término ‘agente’ se usa demasiado. Para hablar de autonomía real, hay criterios técnicos concretos. Autonomía no significa ausencia de humanos. La autonomía efectiva es que la IA opere con criterio dentro de un marco definido por personas y con supervisión cuando el caso lo exige. Cuando eso se cumple, pasamos de automatización avanzada a infraestructura cognitiva”.
Imagen: Getty Images / Unsplash