Probando la autonomía real de OpenClaw
Publicado el 18 de marzo de 2026
Hace una semana decidí hacer un experimento muy sencillo en teoría: montar OpenClaw en una instancia de AWS, dejarlo corriendo como servicio y tratarlo como si fuera un empleado más del equipo. No como asistente. Como agente autónomo.
Montaje rápido y primeras tareas
- Infraestructura: una instancia pequeña en Amazon Web Services, corriendo 24/7.
- Interfaz: WhatsApp, porque es donde vivo todo el día.
- Objetivo: que OpenClaw investigara, analizara y me entregara resultados sin que yo tuviera que estar encima.
Los primeros días fueron prometedores. Le pedía research en la web, síntesis en PDF y guiones cortos para grabar con el móvil. Cumplía. Tenía ideas frescas, bien estructuradas, listas para usar. Ahí pensé: ok, esto puede cambiar cómo trabajo.
La prueba definitiva: desarrollo
Decidí llevarlo al terreno serio: código. Le di acceso a mi repositorio de GitHub, definí issues claros y le dije literalmente: trabaja. Y ahí apareció la grieta.
OpenClaw no falló de manera espectacular. Falló de una forma más frustrante: parecía que estaba trabajando. Respondía "estoy en eso", "ya casi", "compilando"... pero en realidad no avanzaba. Tenía que empujarlo, revisar logs, volver a darle instrucciones y ver cómo quemaba tokens sin dejar resultados tangibles.
Era como tener a alguien que siempre responde "sí, sí, ya casi" pero nunca entrega.
La comparación inevitable: Codex
Para salir de dudas hice lo obvio: comparar. Usando exactamente el mismo modelo de OpenAI en Codex (vía Cursor/Codex CLI) el resultado fue más directo y fiable. Sin la ilusión de autonomía. Ejecutaba, entregaba diffs claros y no exigía babysitting.
Conclusión dura pero honesta: OpenClaw todavía no es un desarrollador autónomo. Es un gran asistente que necesita supervisión constante aunque aparente lo contrario.
Dónde sí brilla OpenClaw
- Research y síntesis → Navega, filtra y entrega PDFs con conclusiones accionables.
- Guiones y contenido rápido → Me da ideas listas para grabar, sin fricción.
- Tareas repetibles → Todo lo que se pueda definir con un brief claro, lo resuelve.
El ajuste de la estrategia
- Para código crítico, vuelvo a lo que funciona: Codex + herramientas tradicionales de desarrollo.
- Para contenido, research y tareas recurrentes, OpenClaw encaja perfecto.
- Y, sobre todo, dejo de creerme la promesa de "autónomo" sin una supervisión real.
Lección final
No se trata de encontrar una herramienta que haga todo. Se trata de entender exactamente para qué sirve cada una y colocarla en el flujo correcto. OpenClaw seguirá en mi stack, pero ahora con un rol muy definido: asistente productivo, no desarrollador independiente.
¿Te pasó algo similar con tus agentes de IA? Escríbeme y lo conversamos.