El reto de personalización masiva en LinkedIn
LinkedIn ha sido pionero durante más de 15 años en sistemas de recomendación de inteligencia artificial aplicada. Con la explosión de la demanda por recomendaciones más personalizadas, la compañía debió repensar su arquitectura para escalar a cientos de millones de usuarios y contextos diversos. El principal aprendizaje fue que apoyarse excesivamente en el prompting tradicional limitaba la calidad y robustez de las recomendaciones.
Por qué el prompting no funcionó como solución escalable
El equipo de ML de LinkedIn comprobó que los prompts, aunque útiles en pequeños experimentos, no lograban la precisión ni el control requeridos para productos críticos. Los prompts eran inestables y poco auditables, dificultando producción y evaluación. Esto llevó a la decisión de abandonar estrategias de prompting y buscar arquitecturas más robustas para el core del sistema de recomendaciones.
La apuesta por modelos pequeños y distilación multi-profesor
La innovación clave fue construir un pipeline basado en distilación multi-profesor: grandes modelos generaban conocimiento y etiquetas sintéticas, que luego se transferían eficientemente a modelos pequeños entrenados para despliegue en producción. Esta estrategia permitió reducir drásticamente los costos computacionales y acelerar el tiempo de respuesta, sin sacrificar calidad. Además, utilizaron conjuntos de datos externos y técnicas para enriquecer la diversidad de situaciones simuladas en el entrenamiento, aumentando la personalización.
Integración de equipos de producto y machine learning
Uno de los factores de éxito fue formalizar un proceso en el que product managers y ML engineers colaboran estrechamente para definir políticas de producto detalladas que guían el desarrollo y entrenamiento de los modelos. Estos artefactos se convirtieron en blueprint para acelerar iniciativas futuras, mejorando la alineación entre negocio y tecnología.
Casos de uso e inspiración para startups tech en LATAM
La migración de LinkedIn hacia modelos pequeños con distilación multi-profesor y el abandono consciente del prompting ofrece lecciones concretas para startups tecnológicas. Optar por modelos compactos no solo ahorra en recursos, sino que habilita IA embebida en aplicaciones de alto tráfico y dispositivos edge. El uso estratégico de generación sintética de datos puede compensar la escasez de datasets locales, algo especialmente útil en contextos latinoamericanos.
Conclusión
La experiencia de LinkedIn demuestra que escalar sistemas complejos de IA requiere ir más allá del prompting. La combinación de modelos pequeños, distilación y rigurosa definición de producto marca un camino aplicable y realista para founders que buscan eficiencia y personalización en sus soluciones.
Descubre cómo otros founders implementan estas soluciones en IA aplicada y personalización uniéndote a la comunidad de Ecosistema Startup.
Fuentes
- https://venturebeat.com/infrastructure/why-linkedin-says-prompting-was-a-non-starter-and-small-models-was-the (fuente original)
- https://venturebeat.com/ai/linkedin-small-llms-job-recommendation-system/ (fuente adicional)
- https://www.theregister.com/2026/01/21/linkedin_ai_models_recommendations/ (fuente adicional)













