Hermes Agent v0.60: Multi-Agente y MCP Server
Hermes Agent v0.60, lanzado el 30 de marzo de 2026, introduce perfiles múltiples para ejecutar instancias aisladas del agente y soporte MCP Server Mode para integraciones externas. La actualización resuelve la principal debilidad de Hermes: escalabilidad multi-agente, consolidándose como alternativa viable a OpenClaw para desarrollo de agentes IA con aprendizaje persistente.
En 30 segundos
- Hermes Agent v0.60 trae 95 commits en 2 días: perfiles multi-agente, MCP Server Mode, Docker support, y fallback provider chains.
- Los perfiles funcionan como instancias aisladas: cada una tiene su propia configuración, memoria, skills y token-lock independientes.
- MCP Server Mode expone tus conversaciones a clientes MCP (Claude Desktop, Cursor, VS Code) sin escribir adaptadores N×M.
- Soporta Nous Portal, OpenRouter, custom endpoints — elegís qué LLM alimenta tu agente.
- v0.60 cierra la brecha principal que tenía Hermes vs OpenClaw: soporte multi-agente sin comprometer el aprendizaje auto-mejorado.
Hermes Agent es un framework open source (MIT licensed) de Nous Research que crea agentes IA con bucle de aprendizaje integrado. A diferencia de un LLM estándar que no recuerda nada entre sesiones, Hermes persiste conocimiento, crea skills dinámicamente desde la experiencia, y refina habilidades durante el uso. Lanzado el 26 de febrero de 2026, acaba de arribar a v0.60 con soporte multi-perfil.
Ponele que sos un freelancer que generás reportes SEO, escribís posts, y revisás HTML todos los días. Hoy usas tres herramientas distintas. ¿Y si tuvieras un agente que aprenda de cada tarea, mejore con el tiempo, y que podás escalar a tres instancias paralelas (una para research, otra para escritura, otra para revisión técnica)? Eso es lo que v0.60 abre.
Qué es Hermes Agent y por qué importa a desarrolladores
Hermes Agent no es un LLM más. Es un scaffold que envuelve un LLM (Nous Hermes, pero podés conectar OpenRouter, Anthropic, lo que sea) y le da memoria persistente y aprendizaje automático. Mientras usás el agente, va creando skills (funciones que encapsulan patrones que aprendió de tus conversaciones). La próxima vez que te plantees un problema similar, lo resuelve mejor porque internalizó la experiencia anterior.
El diferenciador vs ChatGPT, Claude web, o Copilot: Hermes RECUERDA. Entre sesiones, persiste quién sos vos, qué desafíos típicos tenés, y qué soluciones funcionan. Eso es enorme para agentes que trabajan solos 8 a 10 horas diarias.
Nous Research (la empresa detrás) sacó v0.60 el 30 de marzo con 95 commits en apenas 2 días (sí, en serio, un poco loco). Las features principales que llegaron: perfiles múltiples, MCP Server Mode, Docker support, fallback provider chains, y nuevas plataformas (Feishu, WeCom). Pero el big deal es: v0.60 soluciona la mayor debilidad que tenía Hermes respecto a OpenClaw, y es multi-agente. Tema relacionado: privacidad en sistemas multi-agente.
Perfiles múltiples: ejecutar instancias aisladas de Hermes
Los “perfiles” en v0.60 son instancias completamente aisladas de Hermes. Cada perfil vive en su propio sandbox: configuración separada, memoria disjunta, skills propias, y crucialmente, token-lock independiente (no competís por rate limits).
¿Cómo creás uno? hermes profile create nombre-del-perfil. ¿Cómo cambias entre perfiles? hermes -p 2 (te switcheás al perfil 2). El value está acá: antes no podías escalar horizontalmente. Tenías UNA instancia de Hermes, y si la sobrecargas con tres trabajos concurrentes (research + writing + QA), se destraba el contexto. Ahora lanzás tres perfiles paralelos, cada uno con su propia conversación, y se coordinan a través de un gateway service.
Casos de uso concretos:
- Agente de research: monitorea Reddit/HN/GitHub, encola topics. Perfil 1.
- Agente de escritura: genera artículos con estilo consistente. Perfil 2.
- Agente de revisión SEO: optimiza metadata, densidad, linking. Perfil 3.
Los tres corren simultáneamente, se enlazan vía APIs, y cada uno entrena sus propias skills desde su experiencia. Exportar/importar es tan simple como hermes profile export 1 > config.json y hermes profile import config.json -p 3. Eso te deja clonar la “memoria entrenada” de un perfil a otro: copias años de learning en segundos.
MCP Server Mode: integración con herramientas externas
MCP (Model Context Protocol) es el estándar abierto que sacó Anthropic en noviembre 2024 para que herramientas IA se conecten sin escribir N×M adaptadores. Imaginate 20 tools, 5 IA clients: sin MCP, escribís 100 adaptadores. Con MCP, escribís uno, conéctate a cualquiera.
Hermes v0.60 implementó MCP Server Mode. Lo que hace: hermes mcp serve expone tu instancia de Hermes como servidor MCP. Ahora cualquier cliente MCP-compatible (Claude Desktop, Cursor, VS Code) puede conectarse y hacer cosas como navegar el historial de conversaciones, buscar sesiones por keyword, o adjuntar archivos sin volver a escribir código. Es medio la “capa de datos” que faltaba. Antes Hermes era un silo cerrado; vos hablabas con él, punto. Ahora es exportable.
Cómo funcionan los agentes auto-aprendices de Hermes
Este es el corazón de Hermes. Mientras lo usás, el agente no solo responde tu pregunta: aprende de ella. Vos decís “necesito un query SQL que aggregate vendas por categoría en el último mes”, Hermes genera el SQL y te lo devuelve. Internamente: crea un skill llamado generate_sql_sales_by_category. La próxima vez que pedís “aggregate revenue by product type, last week”, reconoce que es un patrón similar al anterior, usa el skill entrenado, lo adapta, sale más rápido y más preciso.
El skill se refina cada vez que lo usás. Es como si tu agente tuviera “muscle memory”: cada vez que hace una tarea, se vuelve mejor en eso. La memoria persiste entre sesiones, así que si cerras y reabrís Hermes mañana, recuerda quién sos y qué necesitás. En herramientas de IA más avanzadas profundizamos sobre esto.
Comparado con OpenClaw (que es gateway multi-canal puro, sin aprendizaje integrado), Hermes aporta amplitud de modelos Y persistencia de conocimiento. OpenClaw gana en facilidad de integrar Slack/Telegram/Discord sin código. Hermes gana en capacidad de un agente singular de volverse más capaz con el tiempo.
Casos de uso prácticos y ejemplos de implementación
Te muestro un setup real que funciona con tres perfiles paralelos:
Perfil 1 (Research): monitorea Reddit r/webdev, r/sysadmin, Hacker News. Encola topics con score mínimo 25. Exporta JSON con trending topics cada 5 minutos.
Perfil 2 (Writer): lee el JSON del perfil 1, escribe artículos (800 a 1200 palabras, español argentino), persiste el draft en Git. Skills entrenadas: tono editorial, estructura, SEO inline.
Perfil 3 (QA/SEO): lee el draft del perfil 2, revisa densidad de keywords, linking interno, metadata, sugiere correcciones con reasoning. Publica directo a WordPress vía REST API si todo pasa.
Los tres corren simultáneamente sin pisarse. Con v0.60, exportá los skills entrenados de Perfil 2 a una segunda máquina: clonás la “inteligencia editorial” en segundos. Conectar vía MCP a Google Search Console trae datos en vivo de posiciones, clicks, impresiones. El agente los ve y ajusta el ángulo del artículo dinámicamente.
Hermes Agent vs OpenClaw: cuál elegir en 2026
| Criterio | Hermes Agent v0.60 | OpenClaw |
|---|---|---|
| Modelos soportados | 30+ (Nous, OpenRouter, Anthropic, custom) | 5 (Gemini, GPT, Claude, Hermes, LLaMA) |
| Perfiles / instancias multi-agente | Sí, aisladas (v0.60 nuevo) | Sí, pero no aisladas (shared workspace) |
| Aprendizaje persistente (skills) | Sí, auto-mejoradas | No (stateless por diseño) |
| Canales integrados | Solo API/MCP | Slack, Discord, Telegram, WhatsApp, Zendesk, Teams |
| Rate limits | Por perfil (independiente) | Compartido en workspace |
| Docker support | Sí (v0.60 nuevo) | Sí |
| Precio (2026) | Gratis (self-hosted) | Gratis (self-hosted) o $99-499/mes (cloud) |
| Community & docs | 2.3k GitHub stars | 8.1k GitHub stars |

Recomendación: Hermes si querés agentes personales o equipo pequeño que aprendan y mejoren con el tiempo. Tenés flexibilidad en modelos. No necesitás Slack/Discord built-in. OpenClaw si necesitás soporte multi-canal listo para empresas, teams compartidos, routing clara de mensajes. v0.60 cierra la brecha, pero todavía hay diferencias arquitectónicas.
Instalación y configuración de Hermes Agent v0.60
Instalación one-liner:
curl -fsSL https://raw.githubusercontent.com/NousResearch/hermes-agent/main/scripts/install.sh | bash Relacionado: plataformas para desplegar agentes.
Requisitos: Linux, macOS, o WSL2 (Windows), 2GB RAM mínimo, 10GB disco, Git.
Post-instalación: hermes model (configurá el LLM: Nous Portal, OpenRouter, custom endpoint). hermes tools (habilitá tools: web search, code execution, etc). hermes setup (setup interactivo de todo a la vez).
Soporta Nous Portal (endpoint oficial de Nous Research), OpenRouter (30+ modelos diferentes), Anthropic Claude (si tenés API key), y custom endpoint (cualquier servidor compatible OpenAI). La config va en ~/.hermes/config.yaml. Vos decidís qué LLM alimenta a tu agente.
Errores comunes y cómo evitarlos
No aislar perfiles y luego quejarse de token limits
Mucha gente crea un solo perfil y mete todo ahí: research, writing, QA todo en uno. Llega el rate limit de OpenRouter (2000 req/min) y se destraba todo. Solución: hermes profile create research y hermes profile create writer. Cada uno con su propio token pool.
No exportar skills entrenadas antes de resetear
Entrenaste un agente 3 meses. Hoy lo reseteás accidentalmente (rm ~/.hermes/) y perdés toda la memoria. Solución: hermes profile export -p 1 > backup.json una vez por semana. Son segundos.
Usar MCP Server Mode sin auth
Exponés hermes mcp serve en tu red local, y cualquiera se conecta. Eso te deja vulnerable si Hermes tiene acceso a APIs sensibles. Solución: usá --api-key y contraseñas en config.yaml. El bridge levanta con auth.
Confundir “MCP Server Mode” con “public API”
MCP es para herramientas IA en tu máquina o red. No es para exponer Hermes a Internet. Solución: MCP Server Mode localhost o VPN only. Internalo. Cubrimos ese tema en detalle en aplicaciones de MCP en sistemas.
Preguntas Frecuentes
¿Qué es exactamente un perfil en Hermes Agent?
Es una instancia completamente aislada del agente. Cada una tiene su propia configuración, memoria persistente, skills entrenadas, y rate limit independiente. Podés tener 10 perfiles corriendo en paralelo sin que se interfieran.
¿Hermes Agent aprende de verdad o solo finge?
Aprende en serio. Crea skills (funciones ejecutables) en base a patrones que ve en tus conversaciones. Los skills persisten entre sesiones. Cada vez que usás uno, se refina. Es machine learning lightweight integrado, no supervised training clásico.
¿Puedo usar Hermes Agent con Claude de Anthropic?
Sí. Hermes soporta cualquier endpoint compatible OpenAI. Configurás tu API key de Anthropic en ~/.hermes/config.yaml y listo. Funciona.
¿Qué es MCP Server Mode en palabras simples?
El agente se convierte en servidor HTTP que otras herramientas IA pueden usar. Claude Desktop, Cursor, VS Code, lo que sea compatible MCP, se conecta y accede al historial y skills del agente.
¿Hermes Agent cuesta dinero?
Gratis. Es MIT licensed, open source, self-hosted. Vos pagás por los modelos que usés (OpenRouter, OpenAI, Anthropic, etc.) pero no por Hermes en sí.
Conclusión
Hermes Agent v0.60 es un buen salto. Llegó a los 3 meses de inception (26 de febrero → 30 de marzo), y cerró la brecha principal que tenía vs OpenClaw: multi-agente escalable. Los perfiles son simples pero poderosos. MCP Server Mode abre integraciones sin boilerplate. Y el aprendizaje persistente sigue siendo lo que diferencia a Hermes de cualquier LLM estándar.
¿Vale la pena migrarse si ya usás ChatGPT o Claude web? Depende. Si trabajás con agentes solitarios 8+ horas (research, writing, coding), sí. El aprendizaje acumulativo te va a ahorrar tiempo. Si solo necesitás chatear ocasionalmente, no hay ganancia.
Para equipos pequeños y tech-savvy: Hermes es una opción seria. Para empresas que necesitan Slack + Discord + Telegram integrated: OpenClaw sigue siendo más directo.
¿Hermes Agent funciona en Windows 11?
Sí, funciona en Windows mediante WSL2 (Windows Subsystem for Linux 2). Una vez que tenés WSL2 instalado, ejecutás el mismo comando de instalación que en Linux. Requisitos mínimos: 2GB RAM, 10GB disco, y Git.
¿Puedo ejecutar múltiples agentes Hermes al mismo tiempo?
Sí, con v0.60 podés crear perfiles aislados usando hermes profile create nombre-del-perfil. Cada perfil tiene su propia memoria, skills y token-lock independiente, sin que se pisen entre ellos.






