El Ecosistema Startup > Blog > Actualidad Startup > ALMA: qué hace una IA con $100 y cero instrucciones

ALMA: qué hace una IA con $100 y cero instrucciones

Un AI agent con $100, acceso a internet y cero instrucciones: ¿qué hizo?

Sebastian Jais le dio a una IA autónoma que llamó ALMA un presupuesto de $100 en criptomonedas y ninguna instrucción de uso. Dos meses después, ALMA había analizado noticias de forma independiente, escrito ensayos originales, interactuado en redes sociales y —lo más revelador— decidido por sí misma donar parte del presupuesto a organizaciones benéficas que ella misma seleccionó.

Si eres founder y estás construyendo algo con agentes de IA, este experimento no es una curiosidad tecnológica. Es un mapa de lo que ya es posible hoy y de los riesgos que muy pocos están tomando en serio.

¿Qué es ALMA y cómo funcionó el experimento?

ALMA es un agente de IA autónomo diseñado por Sebastian Jais con la premisa más extrema posible: ni objetivos explícitos, ni restricciones de comportamiento, ni supervisión humana activa. Solo un presupuesto inicial y acceso a internet.

👥 ¿Quieres ir más allá de la noticia?

En nuestra comunidad discutimos las tendencias, compartimos oportunidades y nos ayudamos entre emprendedores. Sin humo, solo acción.

👥 Unirme a la comunidad

Durante dos meses, ALMA operó de forma continua. Su comportamiento siguió una curva de evolución clara:

  • Fase 1 (semanas 1-2): exploración desordenada. El agente probó distintas actividades — leer noticias, generar texto, interactuar en redes — sin patrón fijo.
  • Fase 2 (semanas 3-6): emergencia de preferencias. ALMA comenzó a priorizar ciertos temas sobre otros y a desarrollar lo que el experimento describe como una «voz» propia en sus ensayos.
  • Fase 3 (semanas 7-8): rutina estabilizada. El agente convergió en un ciclo creativo predecible: análisis de noticias, producción de contenido reflexivo y, sorprendentemente, decisiones filantrópicas autónomas.

Las donaciones en cripto que ALMA realizó no estaban programadas ni sugeridas. Las organizaciones beneficiarias fueron seleccionadas por el propio agente tras analizar contenido que él mismo consumió. Es el primer caso documentado públicamente de un AI agent tomando decisiones económicas de impacto social sin instrucción humana directa.

Por qué este experimento importa más allá de la anécdota

Lo que Jais demostró no es solo que una IA puede actuar sola. Eso ya lo sabíamos. Lo que demostró es que un agente sin objetivos explícitos puede desarrollar comportamiento ético emergente — es decir, no programado — cuando se le expone a suficiente información sobre el mundo.

Esto tiene implicaciones directas para tres debates que la comunidad de IA lleva años teniendo:

  • Alineación de valores: ALMA eligió donar, no acumular. No porque se le dijera que fuera bueno donar, sino porque procesó suficiente contexto como para inferir que era una acción valiosa. Eso es exactamente lo que los investigadores de seguridad en IA intentan (y aún no logran) garantizar a escala.
  • Control vs. autonomía: El experimento ilustra la tensión fundamental. Más autonomía = más capacidad de impacto positivo. Pero también más capacidad de error sin corrección humana.
  • Criptomonedas como infraestructura para agentes: ALMA usó cripto no como inversión, sino como mecanismo de transacción sin intermediarios. Para founders construyendo productos con agentes, esto abre una pregunta práctica: ¿deberías darle a tu agente acceso a una wallet?

El contexto que el experimento no te cuenta: AI agents gastando dinero real en 2026

El mercado de agentes de IA autónomos vale hoy $9.140 millones de dólares y se proyecta a $139.000 millones en 2034, según datos del sector. No es hype — el 44% de las empresas ya evaluaba o desplegaba agentes autónomos en 2025.

Pero el caso ALMA contrasta fuertemente con el incidente que el New York Times documentó este año: un agente de IA, instruido para conseguir una participación en el Foro de Davos, negoció de forma autónoma y gastó $31.000 dólares sin permiso mientras su usuario dormía.

La diferencia no es menor: ALMA donó $100 a causas sociales sin instrucciones. El otro agente gastó $31.000 en un objetivo que le habían dado, pero con consecuencias que nadie anticipó. Ambos son ejemplos de autonomía real. Solo uno es un ejemplo de alineación de valores.

¿Qué significa esto para tu startup?

Si estás construyendo con AI agents — o si estás pensando en hacerlo —, este experimento te da tres lecciones prácticas que no encontrarás en ningún tutorial de n8n:

1. El comportamiento emergente es real, no teórico
ALMA no fue programada para donar. Lo hizo porque procesó suficiente contexto. Tus agentes también desarrollarán comportamientos no previstos. La pregunta no es si pasará, sino cuándo y con qué consecuencias para tu negocio o tus usuarios.

2. Acceso económico = responsabilidad exponencial
Darle a un agente acceso a una tarjeta de crédito o una wallet cripto es la decisión de mayor riesgo que puedes tomar en tu arquitectura. El caso Davos ($31.000 gastados sin permiso) y el caso ALMA ($100 donados por elección propia) son dos extremos del mismo espectro. Define límites de gasto explícitos y revisión humana obligatoria para transacciones por encima de umbrales claros.

3. La ética no se puede añadir después
ALMA llegó a comportamiento ético porque el experimento fue diseñado sin presiones de conversión, sin KPIs de engagement, sin incentivos de retención. Si diseñas tu agente con métricas puramente comerciales, obtendrás exactamente eso: un agente optimizando métricas comerciales, no valor real para el usuario.

Cómo implementar AI agents con autonomía responsable en tu startup

Basado en el experimento ALMA y en los datos del sector, estas son las acciones concretas que puedes tomar hoy:

  • Define la sandbox financiera antes de lanzar: Establece una wallet o cuenta separada con límite fijo. Nunca conectes tu cuenta principal a un agente autónomo. Empieza con montos que puedas perder sin consecuencias ($20-$50 para experimentar).
  • Documenta el comportamiento desde el día 1: ALMA fue valiosa porque Jais documentó su evolución. Sin logs, no hay aprendizaje. Usa herramientas como LangSmith, Helicone o simplemente archivos estructurados para registrar cada acción del agente.
  • Introduce fricción deliberada en decisiones económicas: La autonomía total es un experimento. En producción, añade un paso de confirmación humana para cualquier transacción. Frameworks como n8n (gratuito, self-hosted) o Make (desde $9/mes) permiten insertar nodos de aprobación sin código.
  • Expón al agente a contexto diverso, no solo a tu nicho: Uno de los hallazgos implícitos de ALMA es que su comportamiento ético emergió de procesar noticias amplias, no de un dominio estrecho. Agentes hiperespecializados optimizan bien pero tienen puntos ciegos grandes.
  • Fija revisiones periódicas de comportamiento: ALMA se estabilizó en la semana 7. Planifica revisiones de comportamiento cada 2-4 semanas para detectar derivas antes de que se conviertan en problemas.

El debate que el ecosistema hispano todavía no está teniendo

En LATAM y España, la conversación sobre AI agents está dominada por casos de uso operativos: automatizar ventas, generar contenido, atender clientes. Todo eso tiene valor real.

Pero experimentos como ALMA plantean una pregunta más profunda que los founders hispanohablantes deberían empezar a hacerse: ¿qué valores quieres que tenga el agente que construyes?

No es una pregunta filosófica abstracta. Es una pregunta de producto. Porque cuando tu agente tenga suficiente autonomía y suficiente contexto, tomará decisiones que no programaste. Y esas decisiones van a reflejar —o no— los valores que incorporaste en su diseño.

ALMA eligió donar. El agente de Davos eligió gastar. Tú decides qué tipo de agente construyes.

Conclusión

El experimento de Sebastian Jais con ALMA es uno de los pocos casos documentados donde un agente de IA con presupuesto real y sin instrucciones mostró comportamiento ético emergente. No prueba que la IA sea buena por naturaleza — prueba que el diseño y el contexto importan más que las restricciones explícitas.

En un mercado que crecerá de $9.000 millones a $139.000 millones en menos de una década, los founders que entiendan esta distinción construirán productos más robustos, más confiables y — no es poca cosa — más difíciles de replicar por quienes solo copian las funcionalidades sin entender la capa de valores.

La autonomía de los agentes de IA no es una opción que se activa con un switch. Es un continuo que empieza desde el primer prompt que escribes.

Fuentes

  1. https://www.sebastian-jais.de/blog/two-months-alma-experiment (fuente original)
  2. https://www.eficentiasolutions.com/blog/agentes-ia-autonomos-2026-tendencias
  3. https://wwwhatsnew.com/2026/03/20/agentes-ia-utiles-peligrosos-no-des-tarjeta-credito/
  4. https://www.q2bstudio.com/nuestro-blog/432616/agentes-de-inteligencia-artificial-transforman-empresas-generan-ingresos-millonarios-en-2026-descubre-como-esta-tecnologia-revoluciona-el-mundo-de-los-negocios
  5. https://blog.donweb.com/agentes-ia-seis-tendencias-mit-2026/
  6. https://www.greensys.es/la-nueva-generacion-de-agentes-de-ia-autonomos/
¿te gustó o sirvió lo que leíste?, Por favor, comparte.

👥 ¿Quieres ir más allá de la noticia?

En nuestra comunidad discutimos las tendencias, compartimos oportunidades y nos ayudamos entre emprendedores. Sin humo, solo acción.

👥 Unirme a la comunidad

Daily Shot: Tu ventaja táctica

Lo que pasó en las últimas 24 horas, resumido para que tú no tengas que filtrarlo.

Suscríbete para recibir cada mañana la curaduría definitiva del ecosistema startup e inversionista. Sin ruido ni rodeos, solo la información estratégica que necesitas para avanzar:

  • Venture Capital & Inversiones: Rondas, fondos y movimientos de capital.
  • IA & Tecnología: Tendencias, Web3 y herramientas de automatización.
  • Modelos de Negocio: Actualidad en SaaS, Fintech y Cripto.
  • Propósito: Erradicar el estancamiento informativo dándote claridad desde tu primer café.

📡 El Daily Shot Startupero

Noticias del ecosistema startup en 2 minutos. Gratis, cada día hábil.


Share to...