Definición rápida
MLOps (Machine Learning Operations) es el conjunto de prácticas, herramientas y cultura que permite a los equipos de datos desplegar, monitorear y mantener modelos de machine learning en producción de forma confiable y escalable. Es el DevOps aplicado al mundo del Machine Learning.
¿Qué es MLOps?
El problema que MLOps resuelve es real y frecuente: los equipos de ciencia de datos construyen modelos de Machine Learning excelentes en Jupyter notebooks, pero llevarlos a producción —y mantenerlos funcionando de forma confiable— es un desafío completamente diferente. Se estima que más del 87% de los proyectos de ML nunca llegan a producción.
MLOps toma principios del DevOps (automatización, CI/CD, monitoring) y los adapta a las particularidades del ciclo de vida de modelos de ML: experimentación, entrenamiento, evaluación, deployment, y monitoreo continuo del rendimiento del modelo.
El término fue popularizado alrededor de 2018, cuando empresas como Google, Netflix y Uber publicaron papers sobre sus plataformas internas de ML y los desafíos de operar modelos a escala. Hoy es una disciplina consolidada con herramientas maduras y un creciente ecosistema de startups dedicadas.
El ciclo de vida MLOps
- Desarrollo de datos: Ingesta, validación y versionamiento de datasets de entrenamiento
- Experimentación: Entrenamiento de múltiples modelos con tracking de experimentos (MLflow, W&B)
- CI/CD para ML: Automatizar el re-entrenamiento y deployment cuando hay nuevos datos o el rendimiento cae
- Serving: Desplegar el modelo como API con latencia y throughput adecuados (batch o real-time)
- Monitoreo: Detectar data drift, concept drift y degradación del rendimiento en producción
- Feedback loop: Capturar predicciones erróneas para re-entrenar con datos actualizados
Ejemplos reales en LATAM
Nubank (Brasil)
Con cientos de modelos en producción que toman millones de decisiones diarias (crédito, fraude, atención al cliente), Nubank construyó una plataforma MLOps interna robusta. Sus prácticas de MLOps incluyen versionamiento de modelos, A/B testing de modelos en producción y monitoreo automatizado de performance.
Rappi (Colombia)
Los modelos de recomendación, asignación de repartidores y predicción de demanda de Rappi requieren re-entrenamiento frecuente con datos actuales. Su plataforma MLOps automatiza el ciclo completo: desde la ingesta de datos de millones de órdenes hasta el deployment de nuevas versiones de modelos con rollback automático si el rendimiento cae.
Empresas de detección de fraude (Pan-LATAM)
Las fintechs de pagos como EBANX y Conekta tienen modelos de fraude que necesitan actualizarse constantemente porque los patrones cambian. Sus plataformas MLOps detectan automáticamente cuando un modelo se degrada y disparan re-entrenamiento con datos recientes.
MLOps vs DevOps
| Aspecto | DevOps | MLOps |
|---|---|---|
| Artefacto | Código | Código + Datos + Modelo |
| Testing | Unit tests, integration tests | + Model validation, data validation |
| Versionamiento | Git (código) | Git + DVC (datos y modelos) |
| Monitoreo | Latencia, errors, uptime | + Data drift, concept drift, model performance |
| Deployment | New code version | New model + new data version |
Errores comunes en MLOps
- Deploy y olvidar: Los modelos se degradan con el tiempo (concept drift). Sin monitoreo, un modelo puede estar tomando malas decisiones por meses sin que nadie se dé cuenta.
- No versionar los datos: Si re-entrenas el modelo con datos distintos y el rendimiento cambia, necesitas poder comparar datasets. DVC (Data Version Control) resuelve esto.
- Sobreinvertir en plataforma antes de tener modelos en producción: Construir una plataforma MLOps elaborada antes de tener siquiera un modelo en producción es carro delante del caballo.
- Silos entre Data Science y Engineering: MLOps requiere colaboración estrecha entre científicos de datos e ingenieros. Los equipos que no comunican terminan con modelos que no se pueden desplegar.
Preguntas Frecuentes (FAQ)
¿Qué herramientas de MLOps debo usar para empezar?
Stack recomendado para startups en 2026: MLflow para tracking de experimentos y registro de modelos (gratuito, open source), DVC para versionamiento de datos (gratuito), FastAPI o BentoML para serving de modelos, y cualquier cloud (GCP Vertex AI, AWS SageMaker, Azure ML) para infrastructure. Para equipos pequeños, Weights & Biases es excelente aunque tiene costo.
¿Cuántos modelos necesito tener antes de invertir en MLOps?
La regla general: desde el primer modelo en producción, necesitas al menos logging básico y monitoreo de rendimiento. Con 3+ modelos en producción, un framework formal de MLOps se justifica. Con 10+ modelos, una plataforma MLOps dedicada es esencial.
¿MLOps aplica para modelos basados en LLMs?
Sí, y es un área emergente llamada «LLMOps». Los desafíos son similares pero con particularidades: los LLMs no se re-entrenan frecuentemente, pero sí requieren monitoreo de alucinaciones, evaluación de calidad de respuestas, gestión de prompts (prompt versioning), y monitoreo de costos de API.









