El ajedrez como laboratorio de IA: lecciones para founders tech
Los motores de ajedrez modernos no solo dominan el tablero: están revolucionando cómo entendemos el entrenamiento de modelos de IA. Desde AlphaZero de DeepMind hasta Leela Chess Zero (lc0) y Stockfish, estas herramientas han desarrollado técnicas que cualquier founder trabajando con machine learning debería conocer.
Lo más sorprendente: muchas de estas innovaciones contradicen la sabiduría convencional sobre cómo entrenar modelos inteligentes. Y las implicaciones van mucho más allá del ajedrez.
La revolución del entrenamiento: destilación sobre reinforcement learning
Cuando AlphaZero apareció en escena, estableció el estándar: entrenar motores de ajedrez mediante reinforcement learning (RL). El motor jugaba contra sí mismo miles de veces, aprendiendo de cada partida para predecir resultados futuros.
Pero aquí viene el giro inesperado: resulta que este método costoso no es estrictamente necesario después de la primera vez.
El poder desproporcionado de la búsqueda
Los números cuentan una historia fascinante:
- Un modelo bueno vs. uno malo: ~200 puntos Elo de diferencia
- Agregar búsqueda (search): ~1,200 puntos Elo adicionales
Esta asimetría revela algo crucial: incluso un modelo mediocre con capacidad de búsqueda funciona como un oráculo para un modelo superior sin ella. Por lo tanto, puedes destilar conocimiento desde «modelo mediocre + búsqueda» hacia un nuevo modelo, sin necesidad de generar millones de partidas costosas.
De hecho, lc0 entrenó su modelo premium BT4 mediante destilación pura, y cuando intentaron meterlo nuevamente en el ciclo de RL, ¡el rendimiento empeoró!
¿Por qué funciona tan bien la destilación desde búsqueda?
Comparemos con LLMs:
- Motor de ajedrez: ejecutar el modelo en 50 posiciones equivale aproximadamente a un modelo 30 veces más grande
- LLM con best-of-50: generosamente equivale a un modelo apenas 2 veces más grande
Esta diferencia masiva explica por qué la comunidad de IA esperaba tanto que el test-time compute funcionara para LLMs, cuando técnicas como RLVR (Reinforcement Learning from Verified Reasoning) estaban disponibles todo el tiempo.
Entrenamiento en tiempo de ejecución: adaptación en vivo
Una técnica reciente llevó la destilación a un nivel completamente nuevo: aplicarla durante la partida misma.
Así funciona:
- Tu red neuronal evalúa posiciones tempranas (por ejemplo, dice que estás +0.15 peones mejor)
- Realizas búsqueda exhaustiva y obtienes una evaluación más precisa
- Si hay discrepancia, ajustas las futuras evaluaciones en tiempo real
Resultado: tu red se adapta dinámicamente a la posición específica en la que se encuentra. Es como si el modelo aprendiera sobre la marcha qué aspectos de esa partida particular requieren mayor atención.
SPSA: optimización sin gradientes que funciona increíblemente bien
El objetivo fundamental de destilar desde búsqueda está casi alineado con lo que realmente importa: ganar partidas. Pero no completamente. No nos importa qué tan bien el modelo estima una posición aislada, sino cómo se desempeña después de buscar en 100 posiciones.
Para cerrar esta brecha, lc0 usa SPSA (Simultaneous Perturbation Stochastic Approximation):
- Perturba los pesos aleatoriamente en dos direcciones
- Juega muchas partidas con ambas versiones
- Mueve los pesos en la dirección que gane más
¿Qué tan insano es que esto funcione?
Piénsalo un momento: estás modificando pesos en direcciones puramente aleatorias. No tienes ningún gradiente. Cero información sobre la superficie de pérdida. Y sin embargo, consigues +50 puntos Elo en modelos pequeños (~15 Elo en modelos grandes).
Para poner esto en perspectiva:
- +50 Elo equivale a 1.5 veces el tamaño del modelo
- O aproximadamente un año de esfuerzo de desarrollo
El trade-off: es enormemente costoso. Un solo paso requiere miles de partidas, con docenas de movimientos y cientos de inferencias por movimiento. Pero cuando tu objetivo real (ganar) difiere sutilmente de tu proxy de entrenamiento (evaluar posiciones), esta optimización directa sobre el objetivo final vale cada centavo.
Optimización a través de C++ arbitrario
Aquí es donde las cosas se ponen verdaderamente salvajes. La técnica SPSA puede aplicarse a literalmente cualquier número en tu programa de ajedrez, no solo a los pesos de la red neuronal.
Un ejemplo real de Stockfish:
- Heurística manual: si hay jaque mate en la búsqueda, retrocede por profundidad 1
- Después de SPSA: reemplaza «1» con milésimas de profundidad, optimiza con SPSA
- Resultado: el valor óptimo es retroceder 1.09 profundidades, ganando 5 Elo
Puedes hacer esto para cada número en tu algoritmo de búsqueda. Efectivamente, estás haciendo algo parecido a gradient descent a través de C++ arbitrario, porque tienes una función de calificación clara: ganar o perder.
Para founders tech: esto sugiere que cuando tienes una métrica de negocio clara (conversión, retención, revenue), podrías optimizar componentes de tu stack que normalmente considerarías «no diferenciables».
Arquitecturas extrañas: transformers y smolgen
Leela Chess Zero adoptó una arquitectura transformer estándar, ganando cientos de puntos Elo sobre sus antiguos modelos basados en convoluciones. Una vez más, los transformers demuestran ser la arquitectura universal para casi cualquier dominio.
El misterio de smolgen
El único cambio arquitectónico sustancial que usan es «smolgen»: un sistema para generar sesgos de atención dinámicamente.
Las métricas son alucinantes:
- Costo: ~1.2x en throughput (20% más lento)
- Beneficio: equivalente a un modelo 2.5 veces más grande
Es decir, sacrificas 20% de velocidad y obtienes el rendimiento de un modelo 2.5x más grande. En términos de costo-beneficio, es extraordinario. Pero ¿por qué funciona tan bien? Las explicaciones actuales son insatisfactorias, y representa un área de investigación abierta.
Lecciones para el ecosistema startup
¿Qué pueden aprender los founders que construyen productos con IA?
1. La búsqueda/compute en test-time vale más que modelos más grandes
Si tienes capacidad de búsqueda o verificación en tu dominio (código, matemáticas, planificación), invertir en test-time compute puede ser 6x más efectivo que entrenar modelos más grandes.
2. Destilación > RL para muchos casos de uso
Si ya existe un «oráculo» en tu dominio (un modelo + herramientas, o incluso competidores), destilar desde ahí puede ser mucho más eficiente que RL desde cero. Stockfish literalmente usa datos de su competidor lc0.
3. Optimización directa sobre métricas de negocio funciona
Cuando tu proxy de entrenamiento (accuracy, perplexity) difiere de tu objetivo real (engagement, conversión), vale la pena invertir en optimización costosa directamente sobre la métrica que importa, aunque sea mediante métodos «tontos» como perturbaciones aleatorias.
4. Adaptación en runtime es subestimada
La técnica de ajustar evaluaciones durante la ejecución sugiere que modelos que se adaptan al contexto específico del usuario/sesión podrían superar significativamente a modelos estáticos más grandes.
5. No todo requiere gradientes
SPSA demuestra que con una función de evaluación clara y suficiente compute, puedes optimizar sistemas completos end-to-end sin necesidad de diferenciabilidad. Esto abre puertas para optimizar pipelines completos, no solo modelos aislados.
Conclusión
Los motores de ajedrez son laboratorios de innovación en IA que operan con restricciones fascinantes: objetivos perfectamente definidos (ganar), evaluación instantánea y determinista, y décadas de conocimiento acumulado. Las técnicas que han desarrollado —destilación desde búsqueda, SPSA, adaptación en runtime, optimización de heurísticas— ofrecen patrones aplicables mucho más allá del tablero.
Para founders construyendo con IA, el mensaje es claro: las técnicas más poderosas no siempre son las más obvias o populares. A veces, perturbar aleatoriamente tus pesos funciona mejor que el gradiente más sofisticado. A veces, un modelo pequeño con búsqueda supera a un modelo gigante sin ella. Y a veces, optimizar directamente para tu métrica de negocio —aunque sea costoso— vale cada milisegundo de compute.
La pregunta para tu startup: ¿qué supuestos sobre entrenamiento de modelos estás aceptando sin cuestionar?
¿Implementando IA en tu startup? Únete a founders que están navegando estos mismos desafíos, compartiendo aprendizajes y descubriendo qué técnicas realmente funcionan en producción.













