Nuevo episodio del podcast Es la Hora de Aprender con Cristian Tala, Diego Arias y Rodrigo Rojo. Cristian, Diego y Rodrigo discuten la indicación de IA dentro de la mega reforma chilena, el GDPR europeo y por qué Mistral es la salida limpia, por qué el 80% de la gente que usa IA jamás cambia el modelo por defecto, agentes 100% autónomos con CrewAI y Langchain, slash goal en Claude Code y Codex, y robots de Figure haciendo trabajos blue collar en streaming.
Capítulo 12 de Es la Hora de Aprender. Diego abre desde el comando central, Rodrigo se conecta desde el aeropuerto de La Serena con bolsas de papayas al jugo y Cristian llega con menos modo hater de lo habitual. En este episodio se habla de la indicación de IA dentro de la mega reforma chilena, el contraste con GDPR europeo, por qué Mistral le está sacando empresas a OpenAI, el dato incómodo de que el 80% de los usuarios de IA jamás cambia el modelo por defecto, robots Figure haciendo trabajos manuales en streaming y el aprendizaje técnico de la semana: agentes con slash goal trabajando mientras duermes.
👥 ¿Quieres ir más allá de la noticia?
En nuestra comunidad discutimos las tendencias, compartimos oportunidades y nos ayudamos entre emprendedores. Sin humo, solo acción.
👥 Unirme a la comunidadLo que vas a aprender
- Qué partes de la regulación de IA conviene legislar — privacidad, copyright, soberanía digital — y cuáles no
- Por qué Mistral es la salida limpia para empresas europeas y qué señal manda a LATAM
- Cuánta gente realmente cambia el modelo por defecto en ChatGPT, Claude o Copilot — y por qué importa
- Cómo distinguir un agente autónomo de una automatización agéntica determinística
- Para qué sirve el comando slash goal y por qué Rodrigo dejó al agente revisar tres años de Obsidian mientras dormía
¿Qué partes de la IA conviene legislar — y cuáles no?
Rodrigo abrió con la noticia de la semana en Chile: dentro de la mega reforma se metió una indicación que abre carta blanca para entrenar modelos con cualquier información, sin pedir permiso. En paralelo, en la Cámara de Diputados se rechazó la ley específica de IA que llevaba dos años en discusión, que según Rodrigo estaba mal diseñada y mezclaba temas que ya están cubiertos por la ley de protección de datos.
El punto que destila Rodrigo es importante: no es lo mismo el gobierno que el Estado. Cuando se legisla, se está fijando una regla societal de largo plazo. Y la ley de protección de datos chilena entra en vigencia recién a fines de 2026 — llevaba años discutiéndose. Si la ley de IA toma ese ciclo, cuando salga vamos a estar regulando modelos que ya no existen.
Cristian fue más cortante. Si una ley te obliga a no usar herramientas eficientes, abrís más brecha entre las empresas AI native que nacen del lado óptimo y las tradicionales que se quedan en el papeleo. Su respuesta práctica: monto servidores fuera, abro la empresa en otra jurisdicción y me paso la ley por el lado.
“Hay que entender que las leyes llegan mucho más tarde que los avances de tecnología. Se está tratando de legislar algo que en la práctica juega con reglas de hace un año atrás cuando la IA hoy está en otro lugar.” — Rodrigo Rojo
La conclusión a la que llegaron los tres: sí hay que normar cosas — sesgos, ciberseguridad, copyright, soberanía digital, reconocimiento facial — pero como capítulos agregados a leyes existentes, no como una ley de IA aparte que va a quedar obsoleta antes de promulgarse.
¿Por qué Mistral en Europa es más usable que ChatGPT?
Cristian metió el contraste útil. En Europa hay dos cosas operando al mismo tiempo: el GDPR (la ley dura de protección de datos del bloque) y el Digital Act (regulación de plataformas digitales y específicamente de IA). Meta, OpenAI y otras grandes lanzan funciones nuevas en EE.UU. y se demoran semanas o meses en habilitarlas en Europa porque pasan papeleo regulatorio adicional.
El resultado paradójico: una empresa europea no tiene acceso al state of the art mientras pasa la regulación. Pero a cambio, Mistral — francés, GDPR-compliant de origen — ni siquiera incluye el botón para entrenar con los datos de la conversación. Para una persona emprendiendo es plug and play sin paranoia.
“Con ChatGPT, Cloud o Gemini tienes que ir a la opción de desactivarlo en la cuenta personal o contratar una cuenta empresa. Te agrega pasos adicionales como usuario. Con Mistral, esa preocupación ya está zanjada.” — Rodrigo Rojo
Por eso varias empresas se están moviendo de los modelos estadounidenses a Mistral. La lección para LATAM: una regulación más liviana puede acelerar la adopción, pero el costo es que pierdes el botón “soberanía técnica de fábrica” que Mistral usa como ventaja competitiva en Europa.
¿Por qué el 80% que usa IA no cambia el modelo por defecto?
El dato más incómodo del episodio lo trajo Cristian. Más del 80% de la población mundial nunca ha usado una IA. Del 20% que sí, solo el 6% paga por ella. Y Rodrigo agregó la capa que cierra el cuadro: del subset que sí usa IA, más del 80% jamás cambia el modelo por defecto.
Eso significa que la persona entra a Claude y se queda con Sonnet 4.6 sin pensamiento extendido cuando tiene Opus 4.7 a dos clicks. Entra a ChatGPT y usa GPT-5.5 instant cuando podría tener GPT-5.5 Thinking. Abre Copilot y se queda en modo auto, que es un mal router que termina mandando todo al modelo más barato. Dos clicks separan al usuario de un cambio cualitativo en la respuesta — pero no los hace.
Rodrigo lo confirma desde el aula: en sus talleres con empresas, después de la primera sesión de prompting la mitad de la sala todavía no usaba IA todos los días. Y los que sí, estaban con los modelos por defecto.
“La gente dice ‘Copilot es un asco’. Cuando vas a ver, está usando el modo auto. Le haces el cambio a GPT-5.5 Thinking — está incluido, dos clicks — y reaccionan: ‘no podía creer lo bueno que se está comportando’. Es un tema de usabilidad.” — Rodrigo Rojo
El gap entre la frontera y la mediana es enorme. Quien sí está usando los modelos top, sí está cambiando flags, sí está pagando los planes adecuados, tiene una oportunidad de arbitraje brutal — porque está jugando un juego distinto al 94% restante.
¿Forward engineering: Anthropic y OpenAI lanzan sus propias consultoras?
La novedad táctica de la semana. Tanto Anthropic como OpenAI lanzaron sus áreas de adopción: equipos de ingenieros propios que se van a instalar dentro de las empresas clientes y configuran la implementación. Le pusieron forward engineering.
Cristian lo conectó con su propia historia: “es lo mismo que hacía Amazon cuando mandaba a sus arquitectos”. Rodrigo amplió la analogía: es como la gente que instala SAP — pasa meses dentro de la empresa cliente asegurándose de que los flujos se queden andando.
Pero acá hay un problema estructural que Rodrigo señaló: esos equipos son de ingeniería, no de gestión del cambio. Instalan la herramienta. Lo que no instalan es la capacitación, los Champions, el cambio cultural. Y sin eso, la empresa tradicional no logra absorber la tecnología — vuelve a operar como antes después de tres meses.
¿Qué pasa cuando el que decide la IA es el que se queda sin pega?
El bloque que más enojó a Cristian, y por buena razón. Diego venía describiendo cómo en empresas grandes el área de tecnología y seguridad se demora meses en habilitar un LLM porque tiene incentivo de no romper sistemas. Cristian agregó el segundo cuello de botella: en operaciones, el middle manager que tendría que implementar la IA es el mismo que se quedaría sin función.
Su anécdota fue clara. Una empresa de cobranza con 20 personas haciendo cuadraturas diarias contra bancos. Cristian les demostró que podía automatizar la cuadratura entera. El responsable de la operación reconoció: “sí, pero igual lo hago con 20 personas”. ¿Y qué hago con las 20 personas? Conviértela, despídela — no sé, no es mi llamada.
“El que implementa la IA en una empresa grande sabe que si sale bien, se queda sin pega. Hay un tema de incentivos que esto no funciona — y va a seguir así hasta que se vean amenazados por empresas AI native cobrando dos, tres o cuatro veces menos.” — Cristian Tala
La predicción tácita del episodio: el ajuste no va a venir desde adentro de las empresas grandes. Va a venir desde afuera — empresas nuevas, nacidas eficientes, que ofrezcan el mismo servicio a la mitad del precio. Cuando el cliente migra, el directorio empieza a presionar. Pero el proceso toma años, y entre medio el operativo de la empresa grande sigue cobrando su sueldo.
¿Robots Figure, Tesla Optimus y blue collar bajo presión?
El bloque más concreto sobre automatización física. Diego trajo la noticia: Figure está haciendo un streaming de 8 horas en YouTube y X mostrando a sus robots haciendo tareas manuales — empaquetando bolsas, ordenando cajas, las tareas que clásicamente se llamaban blue collar y que nadie creía que la IA fuera a tocar pronto.
Cristian sumó el cálculo de Tesla. Si el Optimus sale el próximo año a USD 20.000 y dura tres o cuatro años trabajando 24/7, la cuenta cierra rápido contra un sueldo mensual. No hay licencias médicas, no hay quintas abuelas que se mueren, no hay rotación. Es la primera vez que el costo del robot baja a un punto donde un PYME puede plantearse la decisión.
El matiz que metió Rodrigo: los trabajos blue collar especializados (electricistas, plomeros, gente que trabaja con gas) están en bonanza — la automatización los va a tocar más lento por la complejidad física específica. Los blue collar generales — operario en línea, empaquetador, mover paquetes — son los primeros en la lista. Junto con el middle white collar, son las dos olas que más presión sienten esta década.
¿Agentes 100% autónomos o automatizaciones agénticas determinísticas?
El cierre técnico del episodio. Cristian abrió contando su semana: por primera vez dejó a sus agentes operar sin human-in-the-loop. Antes le mandaban un mensaje por Telegram pidiendo aprobación antes de actuar. Ahora simplemente ejecutan, y él revisa el resultado después. Para llegar ahí está jugando con CrewAI — y planea probar Langchain — buscando el framework que mejor permita a varios agentes conversar entre ellos.
Rodrigo cerró con el matiz que la comunidad necesita oír. No todo problema necesita un agente. Muchos casos están mejor resueltos con una automatización agéntica determinística — pasos fijos que incorporan IA en puntos específicos. Los agentes alucinan; si necesitas comportamiento consistente todo el tiempo, mata la creatividad y hazlo determinístico.
“Los agentes se alucinan. Si quieren algo que se comporte bien todo el tiempo, tiene que ser una automatización agéntica, no un agente. Yo tengo más automatizaciones que agentes.” — Cristian Tala
Y el descubrimiento técnico que cierra el episodio: tanto Claude Code como Codex lanzaron esta semana el comando /goal — defines el objetivo (refactorizar un repo, investigar un tema, organizar notas) y el agente itera con pasadas sucesivas hasta cumplirlo. Rodrigo dejó un agente toda la noche revisando tres años de notas en Obsidian para que aprendiera su estilo y propusiera la estructura óptima de sus memorias. “Encontró cosas alucinantes — pero no las puedo revelar porque tiene mis secretos más oscuros.”
Tabla comparativa: agente autónomo vs automatización agéntica
| Variable | Agente autónomo | Automatización agéntica |
|---|---|---|
| Variación tolerable | Alta — exploras un objetivo abierto | Baja — necesitas mismo output siempre |
| Riesgo de alucinación | Real, hay que validar resultado | Acotado a los pasos con IA |
| Costo en tokens | Alto y variable (iteración libre) | Predecible (pasos fijos) |
| Casos típicos | Investigación, deep research, refactorización con /goal |
Cobranza, cuadratura, respuesta a tickets, scraping recurrente |
| Herramientas | CrewAI, Langchain, Claude Code /goal, Codex /goal, Hermes Agent |
n8n, OpenClaw, scripts Python con LLM en pasos |
| Cuándo elegir | Tarea no repetible, objetivo claro, tolera variación | Tarea repetible, output esperado, no tolera variación |
Capítulos del episodio
- 00:03 — Rodrigo desde el aeropuerto de La Serena
- 03:43 — La indicación de IA en la mega reforma chilena y por qué se rechazó la ley de IA
- 08:23 — GDPR + Digital Act en Europa — y por qué Mistral capta empresas
- 11:25 — Cristian: si regulas, abres más brecha entre AI native y las tradicionales
- 16:06 — Lean Startup tiene 16 años — cómo se valida hoy en dos horas con IA
- 21:15 — One Million Dollar Weekend de Noah Kagan: validar pagando primero
- 27:43 — deeplearning.ai y los cursos gratis con Anthropic y OpenAI
- 28:22 — El dato incómodo: 80% nunca usó IA y de ese 20% solo el 6% paga
- 30:31 — El 80% de quienes sí usan no cambia el modelo por defecto
- 32:48 — Anthropic y OpenAI lanzan sus consultoras forward engineering
- 38:22 — Incentivos perversos: el que implementa la IA se queda sin pega
- 41:49 — Círculo vicioso: si despiden a todos, ¿quién compra?
- 43:09 — Figure en streaming + Tesla Optimus a USD 20.000 reemplazando blue collar
- 47:45 — Evento presencial: workshop con entregable, no solo charla
- 52:40 — Pivote de CAR: aportar conocimiento vale lo mismo que pagar
- 56:11 — Cristian: agentes 100% autónomos con CrewAI y Langchain
- 57:34 — Rodrigo: a veces una automatización bien hecha funciona mejor que un agente
- 57:44 — Slash goal en Claude Code y Codex — agentes con objetivo durante la noche
Preguntas frecuentes
¿La ley de IA en Chile va a habilitar o frenar la innovación?
Depende mucho de cómo se cierne. La indicación de IA dentro de la mega reforma abre carta blanca para entrenar modelos con cualquier dato, lo que pone en riesgo derechos de autor. Por otro lado, la ley específica de IA que llevaba dos años se rechazó por mal diseñada. Rodrigo sugiere agregar capítulos a la ley de protección de datos en lugar de armar una ley de IA aparte. Cristian preferiría no regular nada porque el ritmo de la IA es demasiado rápido para una ley con ciclo de tres años.
¿Por qué Mistral le gusta a las empresas europeas más que ChatGPT?
Mistral nació en Francia con GDPR y Digital Act como restricciones de origen, y ni siquiera tiene el botón de entrenar con los datos de la conversación. Para un emprendedor o una empresa europea es plug and play sin papeleo. Con ChatGPT, Claude o Gemini hay que ir a la opción para desactivarlo en la cuenta personal, o contratar una cuenta enterprise. Por eso varias empresas están migrando.
¿Qué significa que el 80% de la gente no cambie el modelo por defecto?
Que la gente está usando Claude Sonnet 4.6 sin pensamiento extendido cuando hay Opus 4.7 al lado, ChatGPT con GPT-5.5 instant cuando tiene GPT-5.5 Thinking en dos clicks, y Copilot en modo auto que es un mal router. Dos clicks cambian la calidad de la respuesta — pero la mayoría no los hace. Es señal de que la adopción real está mucho atrás de la frontera tecnológica.
¿Cuándo conviene un agente autónomo y cuándo una automatización agéntica?
Si necesitas comportamiento consistente todo el tiempo, hazlo determinístico con automatización agéntica — usa IA dentro de pasos fijos. Si necesitas exploración o un objetivo abierto que tolera variación, deja al agente autónomo. Cristian tiene más automatizaciones que agentes precisamente porque los agentes alucinan. La pregunta inicial no es qué modelo uso sino qué tan tolerante soy a la variación.
¿Qué es el slash goal en Claude Code y Codex?
Es un comando que dispara al agente a iterar sobre un objetivo hasta cumplirlo. Le defines la meta (refactorizar un repo, investigar un tema, organizar tus notas), el agente hace pasadas sucesivas como un deep research técnico y te entrega el resultado. Rodrigo lo está usando para procesar tres años de notas en Obsidian mientras duerme y recibir un reporte por la mañana.
¿Por qué en una empresa grande el que implementa la IA se queda sin pega?
Porque está optimizando su propio rol. Cristian lo vivió en una cobranza con 20 personas: le mostró que podía automatizar la cuadratura entera; el dueño de la operación reconoció que sí, pero contestó qué hago con las 20 personas. El incentivo del middle management es no romper lo que funciona. Eso explica por qué la adopción es lenta aún cuando directorio y gerencia quieren avanzar.
Recursos mencionados
- Mistral — el modelo francés GDPR-compliant de origen, sin botón de entrenamiento con datos del usuario. La salida limpia para empresas europeas.
- CrewAI — el orquestador multi-agente en Python con el que Cristian llevó sus agentes a 100% autónomos esta semana.
- Langchain — la siguiente herramienta que Cristian va a probar para que los agentes se comuniquen entre ellos.
- Claude Code — esta semana lanzó el comando slash goal: defines un objetivo abierto y el agente itera hasta cumplirlo.
- Codex — equivalente de OpenAI con slash goal también disponible. Rodrigo lo está probando con Hermes Agent.
- deeplearning.ai — cursos gratis sobre IA (incluido Introducción a workflows agénticos) hechos con Anthropic, OpenAI y otros laboratorios. Solo cobran el certificado.
- ILIA del CENIA — el Índice Latinoamericano de IA con los datos de adopción regional al que Rodrigo apuntó.
- Figure — la empresa de robots haciendo streaming de 8 horas con sus robots realizando trabajos blue collar.
- Cágala, Aprende, Repite (CAR) — la comunidad de Cristian para founders solos con IA, ahora con pivote: el conocimiento aportado vale lo mismo que pagar.
Escucha el episodio completo
eslahoradeaprender.com/episodios/12
👥 ¿Quieres ir más allá de la noticia?
En nuestra comunidad discutimos las tendencias, compartimos oportunidades y nos ayudamos entre emprendedores. Sin humo, solo acción.
👥 Unirme a la comunidad














