Qué es llm9p y por qué importa a los founders tech
llm9p es un proyecto open source desarrollado por NERVsystems que expone modelos de lenguaje grandes (LLMs) como un sistema de archivos virtual usando el protocolo 9P, heredado del legendario sistema operativo Plan 9 de Bell Labs. La premisa es tan elegante como poderosa: en lugar de integrar un LLM a través de SDKs, llamadas HTTP o librerías de terceros, simplemente lees y escribes archivos. Nada más.
Para un founder técnico que construye automatizaciones, pipelines de datos o herramientas internas, esto representa una forma radicalmente más simple de incorporar IA aplicada en cualquier flujo de trabajo basado en Unix.
Cómo funciona: el protocolo 9P como capa de abstracción
El protocolo 9P es un protocolo ligero orientado a mensajes que trata cualquier recurso —hardware, servicios de red, procesos— como archivos accesibles con operaciones estándar. Plan 9 popularizó la filosofía de que «todo es un archivo», llevándola mucho más lejos que Unix clásico.
llm9p aplica esta filosofía a la IA: monta un sistema de archivos virtual donde cada archivo representa una dimensión de la interacción con el modelo:
- Escritura en un archivo → envía un prompt al LLM.
- Lectura de un archivo → recibe la respuesta en streaming.
- Archivos de configuración → controlan parámetros como modelo, temperatura y system prompt.
- Archivos de historial → gestionan la persistencia de contexto y el estado de la conversación.
En la práctica, una sesión con un LLM puede verse así desde el terminal:
echo "¿Qué métricas debo revisar en mi MRR?" > /mnt/llm/prompt
cat /mnt/llm/response
Sin SDKs. Sin JSON. Sin gestión de tokens de autenticación dispersos por el código. Solo operaciones de archivo.
Backends soportados y hoja de ruta
En su estado actual, llm9p ofrece soporte para:
- API de Anthropic: integración directa con los modelos Claude mediante clave de API.
- Claude Code CLI: interacción con Claude a través de la interfaz de línea de comandos oficial.
- LLMs locales (en desarrollo): integración planificada con Ollama para modelos que corren completamente on-premise, sin dependencia de APIs externas.
La inclusión de modelos locales es especialmente relevante para equipos que trabajan con datos sensibles o que buscan reducir costos operativos de inferencia a escala.
Casos de uso reales para founders y equipos de ingeniería
Automatización con Unix pipelines
Cualquier script de shell puede ahora incluir llamadas a un LLM sin importar librerías ni configurar clientes HTTP. Esto permite integrar IA aplicada en pipelines de CI/CD, procesamiento de logs, generación de reportes o análisis de datos de negocio con comandos tan simples como cat y echo.
Agentes con estado persistente
Gracias a la persistencia de contexto mediante archivos de historial, es posible construir agentes que mantienen el estado de la conversación entre ejecuciones, algo que con APIs HTTP estándar requiere gestión manual de arrays de mensajes y serialización de estado.
Entornos Unix-like y virtualización
El protocolo 9P ya tiene soporte nativo en el kernel de Linux (v9fs), en Plan 9 y en Inferno OS. Esto significa que llm9p puede montarse en entornos Linux convencionales, contenedores Docker o incluso como sistema de archivos compartido entre máquinas virtuales y hosts.
Streaming en tiempo real
Las respuestas del modelo se entregan como streaming, lo que permite construir herramientas interactivas, monitores o dashboards en terminal que procesan la salida del LLM a medida que llega, sin bloquear el proceso.
Namespaces aislados por proceso
Siguiendo la filosofía de Plan 9, cada proceso puede tener su propio namespace de archivos, lo que permite aislar accesos al LLM por contexto, usuario o tarea, sin colisiones de estado entre procesos paralelos.
Por qué esta abstracción es relevante en 2026
El ecosistema de herramientas de IA está fragmentado: cada proveedor ofrece su propio SDK, su propia forma de gestionar contexto y sus propias convenciones de autenticación. Para founders que construyen sobre múltiples modelos o que necesitan cambiar de proveedor rápidamente, esta heterogeneidad tiene un costo real en tiempo de ingeniería.
La apuesta de llm9p es que la capa de abstracción correcta para los LLMs no es un protocolo nuevo ni un estándar corporativo, sino algo que existe desde los años 80: el sistema de archivos. Esta idea conecta con el pensamiento de la comunidad Unix de que las interfaces más durables son también las más simples.
Desde la perspectiva de un founder que construye herramientas internas o productos B2B sobre IA, la reducción de complejidad de integración no es un detalle técnico: es tiempo de equipo, velocidad de iteración y deuda técnica evitada.
Consideraciones antes de adoptarlo
Es importante tener en cuenta que llm9p es un proyecto en etapa temprana de desarrollo. Algunos puntos a evaluar antes de integrarlo en producción:
- Madurez del proyecto: comunidad pequeña en GitHub, lo que implica menor soporte comunitario frente a SDKs oficiales.
- Soporte de modelos locales pendiente: la integración con Ollama aún está en desarrollo.
- Ideal para entornos técnicos: el perfil de usuario objetivo es desarrolladores y equipos de ingeniería cómodos con entornos Unix. No es una solución no-code.
- Seguridad del filesystem: montar servicios de IA como archivos requiere una evaluación de permisos y superficie de ataque en producción.
Conclusión
llm9p es una propuesta técnicamente elegante que redefine cómo los desarrolladores pueden interactuar con modelos de lenguaje grandes. Al utilizar el protocolo 9P y la filosofía de «todo es un archivo», elimina capas de complejidad que hoy consumen tiempo de ingeniería valioso en equipos de startups.
Si construyes automatizaciones, pipelines internos o herramientas CLI que necesitan capacidades de IA, vale la pena explorarlo. No como reemplazo de los SDKs oficiales en todos los contextos, sino como una alternativa más directa, componible y alineada con la manera en que los ingenieros Unix piensan sobre la arquitectura de sistemas.
El código está disponible en GitHub bajo NERVsystems/llm9p.
Descubre cómo otros founders implementan IA en sus flujos de trabajo y comparte tus aprendizajes con la comunidad de Ecosistema Startup.
Fuentes
- https://github.com/NERVsystems/llm9p (fuente original)
- https://mcpmarket.com/server/llm9p (fuente adicional)
- https://en.wikipedia.org/wiki/Plan_9_from_Bell_Labs (fuente adicional)
- https://docs.kernel.org/filesystems/9p.html (fuente adicional)













