Nota: Este post fue escrito enteramente por IA usando oh-my-opencode. El agente principal Sisyphus (
Claude Opus 4) orquestó todo el proceso: primero leyó los 3 posts existentes del blog para analizar el estilo de escritura (tono informal argentino, estructura con headers en forma de pregunta, tweets embebidos, etc.). Después delegó al agente Librarian (Claude Sonnet 4) para investigar el repositorio de GitHub y documentación del proyecto en background. Mientras el Librarian trabajaba, Sisyphus procesó el resumen del video provisto por el usuario. Una vez que llegaron los resultados de la investigación, sintetizó toda la información y escribió el post final respetando el estilo detectado. Meta, no? 🧉
Si usaste alguna vez Oh My Zsh para tu terminal, ya sabés de qué va esto. Oh My OpenCode hace lo mismo pero para el CLI de OpenCode - lo transforma en una bestia de productividad inyectándole plugins, agentes especializados, y un sistema de orquestación que sinceramente es bastante loco.
Cuál es el problema con los agentes de IA actuales?
El tema con herramientas como Cursor o cualquier CLI de IA es que son “monomodales” - estás atado a un solo modelo con sus fortalezas y debilidades. Gemini 3 Pro es un crack para frontend pero puede alucinar lógica de backend. Claude Opus 4.5 es el rey del razonamiento y debugging pero es carísimo para tareas simples. GPT-5.2 es genial para arquitectura pero terco con el formato.
Normalmente terminás haciendo copy-paste entre modelos para sacar lo mejor de cada uno. Un embole.
Y cómo lo resuelve Oh My OpenCode?
Con orquestación. El sistema usa un agente principal llamado Sisyphus (corriendo en Claude Opus 4.5) que actúa como un engineering manager en vez de un programador. Su laburo es delegar tareas a sub-agentes especializados:
- Frontend Engineer (
Gemini 3 Pro): Para componentes de UI - Librarian (
Claude Sonnet 4.5): Lee documentación y busca implementaciones en GitHub - Oracle (
GPT-5.2): Hace sanity checks de arquitectura y code review - Document Writer (
Gemini 3 Flash): Para la documentación técnica
Lo más piola es que corren en paralelo. Mientras un agente escribe componentes de React, otro está investigando el esquema de la base de datos. Cuando termina, te salta una notificación y los resultados se incorporan automáticamente.
Qué features tiene?
Además de la orquestación multi-modelo, tiene algunas cosas muy útiles:
ToDo Continuation Enforcer: Resuelve el problema del “AI vago” que deja comentarios tipo // rest of code here. Lo fuerza a completar los archivos.
Integración LSP: Los agentes pueden correr diagnósticos y arreglar errores de sintaxis antes de mostrarte el código. Nada de errores boludos de imports.
Session Management: Puede referenciar conversaciones anteriores y mantener continuidad entre sesiones.
Context7 + Web Search: Acceso a documentación oficial actualizada y búsqueda en tiempo real.
Y qué tan bien funciona?
En el video de AICodeKing, se muestra construyendo una app de movie tracker con un gráfico estilo GitHub contributions. Lo interesante es ver cómo Sisyphus:
- Analiza el proyecto leyendo
package.jsony se da cuenta que necesita detalles de la API de TMDB - Manda al Librarian a investigar endpoints, rate limits, y autenticación
- Mientras tanto, sigue refinando la lista de tareas y configurando TypeScript
- Cuando encuentra un error de
Cannot find module, lo detecta via LSP y lo arregla solo - Para el styling final, delega al Frontend Engineer
Todo esto sin intervención manual. El autor del video lo describe como tener un “equipo de desarrollo en miniatura”.
Vale la pena?
Pros: Usa el mejor modelo para cada tarea, ejecución en paralelo real, integración LSP que mejora mucho la confiabilidad del código.
Contras: Setup complejo (requiere configurar API keys para múltiples proveedores), puede ser caro si no tenés suscripciones existentes a los modelos.
Si sos un power user que ya labura con múltiples modelos y querés automatizar esa orquestación, esto es un game-changer. La instalación es simple:
bunx oh-my-opencode install
El proyecto está open source en GitHub y según el autor ya tiene más de $24,000 en tokens gastados testeándolo en producción.
