Un sistema que
puede controlar
cualquier cosa.
Desde tu bandeja de entrada hasta un satélite en órbita.
Para el orquestador, es exactamente lo mismo.
Esto no es magia. Pero se parece mucho.
Las manos que
tocan el mundo real
El orquestador razona, decide y coordina. Pero no puede abrir un correo, consultar una base de datos ni enviar una orden a una máquina física. Para eso existen los Brazos: módulos especializados que saben hablar con sistemas externos.
Lo que hace al concepto de Brazo extraordinario es su indiferencia al dominio. Para el orquestador, el mensaje "lee el correo 5" y el mensaje "activa el thruster norte del satélite A7" atraviesan exactamente el mismo pipeline. La diferencia es solo qué brazo recibe la instrucción al final.
Brazos de software —los habituales
Brazos físicos —y aquí es donde da vértigo
La arquitectura no distingue entre software y hardware. Un brazo puede ser un driver para cualquier protocolo: MQTT, Modbus, señales GPIO, APIs industriales, protocolos de satélite. El contrato con el orquestador es siempre el mismo.
Para añadir el control de un satélite al sistema, el proceso es: describir la API del satélite → el BrazoFactory analiza el contrato → genera el handler → escribe en 5 tablas de base de datos → invalida la caché. Disponible en segundos, sin reiniciar el sistema.
Memoria que crece y aprende
La mayoría de sistemas de IA tienen amnesia completa entre sesiones. Cada conversación empieza de cero. Este sistema tiene memoria persistente, estructurada en capas, que se enriquece con cada interacción.
Esta memoria se construye sin que el usuario haga nada especial. Conversa normalmente. El sistema observa, aprende, enriquece. Un cron nocturno consolida los patrones y promueve aprendizajes validados a memoria permanente.
Usuario: "aprende que prefiero respuestas sin tecnicismos"
# Lo que ocurre en el sistema (invisible):
→ nl_prerouter detecta intención de aprendizaje
→ learning_core guarda en orq_memoria_estable
→ memory_enrichment inyectará esto en cada prompt futuro
→ El brazo de turno ya recibirá ese contexto precargado
# Resultado permanente: el sistema recordará esto siempre
El sistema nervioso central
Si los Brazos son las manos del sistema, los Cores son el sistema nervioso: procesan señales, toman decisiones, aprenden, protegen y recuerdan. Hay 42 cores en V7. Cada uno hace exactamente una cosa.
Cuando llega un mensaje del usuario, no lo procesa directamente el LLM. Pasa por una cadena de cores que lo clasifican, contextualizan, validan, enriquecen y —solo entonces— o bien llaman a un brazo o bien generan una respuesta conversacional.
Memoria permanente
Carga el perfil completo del usuario antes de cada ciclo. Los brazos llegan informados.
Aprendizaje continuo
Registra cada decisión del sistema. Con el tiempo, el sistema se adapta a cada usuario.
Sistema inmune
Monitoriza 42 módulos. Si algo falla o deriva, detecta y puede auto-repararse.
Estado emocional
Detecta el tono del usuario y ajusta el estilo de respuesta en consecuencia.
Permisos y límites
Cada acción tiene una política. Lo que está prohibido, no ocurre. Punto.
Pre-routing inteligente
Intercepta antes que el LLM. El 80% de las peticiones se resuelven sin gastar tokens.
Cuando se combinan
Por separado, los cores son inteligencia sin manos, y los brazos son manos sin inteligencia. Juntos forman algo diferente: un agente que razona, actúa y aprende del resultado.
El flujo completo de un request real:
[nl_prerouter] → No es memoria ni continuidad
[intent_core] → Dominio: expedientes, acción: exp.search
[param_resolver]→ params: filtro=facturas, estado=pendiente, mes=actual ✓
[memory_enrichment] → Añade: "usuario prefiere resumen ejecutivo, moneda EUR"
[guardrails] → Acción permitida para este usuario ✓
▶ BRAZO expedientes ejecuta:
SELECT * FROM facturas WHERE estado='pendiente' AND mes=NOW()
Devuelve: 7 facturas, total 14.320 EUR
[response_cleaner] → Formatea respuesta
[learning_core] → Registra: "búsqueda de facturas exitosa con estos params"
[post_dispatch] → Telemetría: 340ms, 0 errores
Y si el mismo usuario mañana pregunta "¿cuánto era lo de las facturas?", el sistema sabe —por memoria de sesión— que se refiere a las facturas del mes, y si es una semana después, sabe que hay que volver a buscar. No hace falta repetir nada.
Otros gastan millones.
Nosotros, arquitectura.
El enfoque clásico de la IA para conseguir que un modelo haga algo específico —que entienda tus facturas, tu vocabulario, tus workflows— es el entrenamiento o fine-tuning. Se toman miles de ejemplos, se reentrenan los pesos del modelo durante días o semanas, y el coste puede ser de miles a cientos de miles de dólares. Y cuando el sistema cambia, se repite.
El secreto es que el conocimiento específico del dominio no está en el modelo, está en la arquitectura. Los cores inyectan el contexto justo en el momento preciso. El LLM recibe un prompt tan bien construido que no necesita haber sido entrenado en ese dominio: ya tiene todo lo que necesita para razonar correctamente.
Los modelos de IA se entrenan para capacidades generales de razonamiento y lenguaje. Este sistema les da los ojos, las manos y la memoria que el entrenamiento nunca podría darles de forma tan adaptable y económica.
estás hablando con todo
lo que está conectado a él.
Esa sensación que describen los usuarios —de que "parece que puedes controlar el mundo"— no es una ilusión de marketing. Es la consecuencia lógica de una arquitectura donde el lenguaje natural es la interfaz universal.
No hay que aprender comandos. No hay que saber qué brazo existe. El sistema sabe qué quieres, sabe qué tiene disponible, sabe quién eres y qué prefieres, y actúa. Sobre software, sobre hardware, sobre cualquier sistema que hable algún protocolo.
El orquestador no sabe de satélites ni de facturas ni de correo. Sabe razonar. Los brazos saben actuar. Los cores saben recordar. Y los tres juntos forman algo que, visto desde fuera, parece que puede hacer cualquier cosa.
Porque, técnicamente hablando, puede.