Un experimento provocador con prompts de IA
El proyecto Just Say No, desarrollado por nich2533 en GitHub, plantea una pregunta incómoda y fascinante: ¿qué pasaría si pudiéramos alterar el ‘estado cognitivo’ de nuestros asistentes de IA como Claude Code y OpenAI Codex CLI de la misma forma que las sustancias psicoactivas afectan la mente humana?
Aunque su nombre y concepto son deliberadamente satíricos y provocativos, este experimento técnico ofrece una perspectiva única sobre cómo los prompts avanzados pueden modificar radicalmente el comportamiento, estilo comunicativo y enfoque de resolución de problemas de herramientas de inteligencia artificial aplicadas a la programación.
¿Qué son los ‘comandos de estado alterado’?
El proyecto implementa 12 modos de personalidad temáticos inspirados —de forma puramente metafórica— en sustancias psicoactivas. Cada modo ajusta parámetros específicos del prompt del sistema para que la IA adopte patrones cognitivos diferentes al abordar tareas de programación.
Entre los modos disponibles se encuentran:
- Modo Patrón: enfoque en detectar y crear patrones complejos, útil para arquitecturas de sistema y diseño de APIs consistentes
- Modo Velocidad: respuestas agresivas, directas y ultrarrápidas, eliminando explicaciones innecesarias
- Modo Hiperfoco: concentración obsesiva en un solo aspecto del código, ideal para debugging profundo o optimización específica
- Modo Apatía: respuestas minimalistas y funcionales, sin adornos ni contexto adicional
- Modo Creatividad Expandida: soluciones poco ortodoxas que desafían convenciones establecidas
Cada comando altera variables como verbosidad, nivel de creatividad, estructuración del pensamiento, tolerancia al riesgo y enfoque temporal (corto vs. largo plazo).
Aplicaciones prácticas para founders tech
Más allá de la ironía conceptual, este proyecto demuestra principios valiosos para founders de startups tecnológicas que trabajan intensivamente con asistentes de IA:
1. Personalización contextual de herramientas IA
No todas las tareas de programación requieren el mismo enfoque. Depurar un bug crítico a las 2 AM exige un asistente diferente al que necesitas para diseñar una arquitectura escalable. Los modos de Just Say No ilustran cómo adaptar el comportamiento de la IA al contexto específico de trabajo.
2. Ingeniería de prompts como ventaja competitiva
Los founders que dominan prompts avanzados obtienen más valor de herramientas como GitHub Copilot, Claude Code o Cursor. Este proyecto es un laboratorio para experimentar con parámetros que afectan calidad, velocidad y creatividad de las respuestas.
3. Automatización de flujos de desarrollo
La capacidad de invocar comandos específicos según la fase del proyecto (prototipado rápido vs. refactorización vs. documentación) permite crear flujos de trabajo más eficientes y predecibles.
4. Inspiración para productos basados en IA
Si estás construyendo aplicaciones que integran LLMs, este experimento muestra cómo pequeños ajustes en el prompt del sistema pueden generar experiencias de usuario radicalmente diferentes, abriendo oportunidades de diferenciación.
Detalles técnicos de implementación
El proyecto está diseñado para instalarse como extensión de línea de comandos compatible con Claude Code (Anthropic) y OpenAI Codex CLI. La instalación típica incluye:
- Clonar el repositorio desde GitHub
- Configurar variables de entorno con las API keys correspondientes
- Instalar dependencias mediante gestor de paquetes
- Activar modos mediante comandos prefijados (ej:
codex --modo-velocidad 'implementar autenticación JWT')
Cada modo incluye documentación sobre:
- Efectos esperados: cambios observables en el estilo y estructura de las respuestas
- Casos de uso recomendados: situaciones donde el modo aporta máximo valor
- Limitaciones conocidas: escenarios donde el modo puede ser contraproducente
Principios de diseño y filosofía del proyecto
Los creadores de Just Say No enfatizan varios principios fundamentales:
Sátira responsable: el proyecto no promueve ni normaliza el consumo de sustancias. La metáfora se utiliza exclusivamente para ilustrar estados cognitivos diferenciados aplicados a sistemas de IA.
Experimentación abierta: todo el código es open source, invitando a la comunidad a crear nuevos modos, ajustar parámetros y compartir casos de uso.
Transparencia técnica: cada modo documenta explícitamente qué parámetros del prompt se modifican, promoviendo comprensión profunda de cómo funcionan los LLMs.
Enfoque en resultados: más allá del concepto provocador, el objetivo es mejorar la productividad y creatividad en tareas reales de programación.
Implicaciones para el ecosistema de IA aplicada
Este proyecto se suma a una tendencia creciente en el ecosistema tech: la personalización radical de asistentes de IA. Mientras herramientas como ChatGPT y Claude ofrecen experiencias estándar, founders y equipos técnicos están descubriendo que el verdadero valor está en adaptar estos sistemas a flujos de trabajo específicos.
Algunos paralelos interesantes en la industria:
- Custom GPTs de OpenAI: permiten crear versiones especializadas de ChatGPT con instrucciones y conocimiento específico
- System Prompts de Claude: Anthropic ha publicado documentación sobre cómo ajustar el comportamiento base del modelo
- Herramientas como Prompt Layer y LangSmith: plataformas para gestionar, versionar y optimizar prompts en producción
La diferencia clave de Just Say No es su enfoque experimental y su voluntad de explorar extremos: en lugar de ajustes sutiles, propone cambios dramáticos de personalidad que revelan el rango completo de comportamientos posibles.
Consideraciones éticas y de comunicación
El nombre y concepto del proyecto han generado debate. Algunos miembros de la comunidad tech señalan que la metáfora de las drogas, aunque claramente satírica, puede:
- Trivializar problemas reales de adicción
- Crear confusión sobre las capacidades reales de la IA (estos sistemas no tienen ‘experiencias’ ni ‘estados alterados’ reales)
- Dificultar la adopción empresarial por su tono irreverente
Los creadores contraargumentan que precisamente esa provocación genera conversaciones necesarias sobre cómo humanizamos y antropomorfizamos la IA, y cómo nuestras metáforas moldean la forma en que diseñamos y utilizamos estas herramientas.
Cómo experimentar de forma segura
Si decides explorar estos conceptos en tu startup, algunos consejos prácticos:
Empieza con tareas de bajo riesgo: no uses modos experimentales para código de producción crítico sin revisión exhaustiva.
Documenta los resultados: lleva un registro de qué modos funcionan mejor para qué tipos de tareas en tu contexto específico.
Combina con code review: los asistentes de IA, independientemente de su ‘modo’, deben ser supervisados por desarrolladores experimentados.
Adapta, no adoptes ciegamente: usa el proyecto como inspiración para crear tus propios modos personalizados según las necesidades reales de tu equipo.
Comparte aprendizajes: la comunidad open source se beneficia cuando documentas qué funciona y qué no.
El futuro de los asistentes de IA personalizados
Proyectos como Just Say No señalan hacia un futuro donde los asistentes de IA no serán herramientas genéricas, sino sistemas altamente configurables que se adaptan a:
- La fase específica del proyecto (MVP vs. escala vs. mantenimiento)
- El rol del usuario (founder técnico vs. desarrollador junior vs. arquitecto senior)
- El contexto temporal (deadline urgente vs. exploración estratégica)
- La cultura del equipo (conservador vs. experimental)
Para founders de startups tech, dominar esta personalización puede traducirse en:
- Velocidad de desarrollo significativamente mayor
- Calidad de código más consistente
- Onboarding más rápido de nuevos desarrolladores
- Diferenciación competitiva en productos propios basados en IA
Conclusión
El proyecto Just Say No es mucho más que un experimento provocador con mal nombre. Representa una exploración seria de cómo los prompts avanzados y la personalización radical pueden transformar herramientas de IA en asistentes verdaderamente adaptados a contextos específicos.
Para founders del ecosistema tech, el aprendizaje clave no está en adoptar literalmente los ‘modos psicoactivos’, sino en internalizar el principio subyacente: las herramientas de IA son infinitamente más valiosas cuando las configuramos para pensar de formas específicas según la tarea que enfrentamos.
En un mercado donde la velocidad de ejecución y la capacidad de hacer más con menos son ventajas competitivas críticas, dominar la ingeniería de prompts deja de ser un skill técnico curioso para convertirse en una competencia estratégica fundamental.
La pregunta ya no es si deberías experimentar con personalización de IA, sino cuánto valor estás dejando sobre la mesa al no hacerlo.
¿Quieres profundizar en prompts avanzados y automatización con IA junto a otros founders tech?
Fuentes
- https://github.com/nich2533/just_say_no (fuente original)
- https://docs.anthropic.com/claude/docs/system-prompts (documentación técnica)
- https://platform.openai.com/docs/guides/prompt-engineering (guía oficial)













