El problema con la abundancia de outputs competentes
La inteligencia artificial y los grandes modelos de lenguaje (LLMs) han hecho algo que parecía imposible hace apenas cinco años: convertir el output competente en un commodity. Una landing page se genera en minutos. Un memo de producto aparece en un solo prompt. Un pitch deck puede verse pulido antes de que alguien haya tomado una sola decisión difícil sobre lo que realmente cree la empresa.
Esto no es solo un cambio técnico. Es un cambio de poder. Y los founders que lo entiendan primero tendrán una ventaja enorme sobre los que lo ignoren.
El resultado visible de este fenómeno es lo que algunos analistas llaman el «mundo de los 7 sobre 10»: un mercado saturado de productos y contenidos que se ven profesionales, suenan sofisticados y no dicen nada específico ni memorable. La capa media está llena. Y seguirá llenándose.
👥 ¿Quieres ir más allá de la noticia?
En nuestra comunidad discutimos las tendencias, compartimos oportunidades y nos ayudamos entre emprendedores. Sin humo, solo acción.
👥 Unirme a la comunidadPor qué el buen gusto se convierte en el único moat real
Cuando producir algo aceptable se vuelve trivial, la ventaja migra hacia arriba en la cadena de valor: hacia el juicio. Quienes destacan ya no son solo los que pueden producir; son los que pueden distinguir lo genérico de lo verdadero, lo promedio de lo específico, lo polished de lo memorable.
En el contexto de startups y productos digitales, el buen gusto no tiene nada que ver con estética personal ni con preferencias de diseño. Se trata de algo mucho más funcional: distinguir bajo incertidumbre.
La mayor parte del trabajo relevante no viene con datos perfectos. No hay una hoja de cálculo que te diga cuál frase hará que un cliente se interese, qué feature vale un mes de engineering, o qué diseño cruza la línea de pulido a olvidable. Alguien tiene que decidir. Esa capacidad de decisión —cuando se puede articular con precisión por qué algo falla, no solo decir que «algo se siente mal»— es el buen gusto aplicado a negocios.
Según Founder Collective, una de las firmas de venture capital más influyentes del ecosistema tech, «el futuro pertenece a quienes tienen adaptabilidad, insight psicológico y gusto… Es lo que le permite a alguien decir ‘esto es bueno’ mucho antes de que los números lo confirmen». La misma firma señala que la evaluación de startups en etapas tempranas se parece más a la crítica de arte que al análisis financiero: se toman decisiones sobre ideas no probadas basándose en claridad de pensamiento y criterio.
Cómo los LLMs aplanan el centro de la distribución
Los LLMs son, en esencia, motores de compresión de patrones extraordinariamente poderosos. Absorben enormes volúmenes de lenguaje, patrones de diseño e interfaces, y los recombinan a velocidad. Esa es su fortaleza. Y también su sesgo por defecto.
Por diseño, estos sistemas son mucho mejores produciendo output estadísticamente plausible que originando algo profundamente específico para tu contexto exacto. Dejados solos, tienden hacia el centro seguro de la distribución. De ahí que tanto contenido generado con IA se sienta familiar:
- Landing pages con logos distintos pero la misma estructura
- Copy de producto que podría describir cualquier app
- Ensayos con encabezados limpios y poco juicio vivido
- Diseño visual que parece moderno, pero no es memorable
Esto no es un fracaso catastrófico del modelo. Es un éxito en el promedio. El problema es que el promedio solía ser suficientemente difícil de alcanzar como para crear algo de diferenciación. Ahora es abundante.
La analista Shrivu Shankar describe este fenómeno con precisión: «El gusto se comporta como el alpha financiero: tu ventaja sobre la mediana es real pero temporal, porque la mediana es un objetivo en movimiento que absorbe constantemente las mejoras de la IA». Esto significa que el criterio humano no es solo una ventaja estática: es una carrera continua por mantenerse por encima de una línea de base que sube.
El nuevo cuello de botella: la capacidad de rechazar
Antes de la IA, el trabajo mediocre solía reflejar falta de tiempo, recursos o habilidad de ejecución. Hoy, el trabajo mediocre significa algo diferente: la persona se detuvo en el primer borrador aceptable.
Ese es el cambio económico que introduce la IA generativa. Comprime el costo de los primeros borradores, lo que significa que el valor se desplaza hacia abajo en la cadena. La parte escasa ya no es la generación. Es la capacidad de decir:
- Esto se ve bien, pero es demasiado genérico
- Esto suena impresionante, pero esconde el trade-off real
- Esta interfaz está pulida, pero no refleja cómo el usuario realmente piensa
- Este plan es ambicioso, pero las restricciones operativas lo hacen inviable
En otras palabras, la habilidad escasa no es la generación. Es el rechazo fundamentado.
Para un founder, esto tiene implicaciones concretas: si usas IA para producir tu copy, tu estrategia o tus interfaces sin poder articular con precisión por qué algo falla, no estás usando la IA como herramienta. La IA te está usando a ti como validador pasivo.
La IA como espejo de tu propio juicio
Una de las cosas más reveladoras de trabajar intensamente con modelos de lenguaje es que exponen con brutalidad qué tan desarrollado está tu criterio. Si le pides a un LLM 10 versiones de un hero de landing page o de un email de onboarding, normalmente verás un patrón:
- Algunos claramente débiles
- Un gran grupo de versiones aceptables
- Uno o dos que parecen más cercanos a lo que necesitas
La pregunta interesante no es «¿cuál elijo?». Es «¿por qué la mayoría siguen siendo incorrectos?». Tu respuesta a esa pregunta es la calidad de tu juicio. Si tu crítica permanece vaga, tu criterio aún está por desarrollarse. Si se vuelve precisa, tu juicio ya supera al output del modelo.
La escritora Annie Dabir lo articula bien: «El buen gusto tiene profundidad; emocional e histórica. No es seguir tendencias. Es contención. Es ser un editor constante. El verdadero gusto es claridad: la capacidad de ver a través de las modas».
Un método práctico para entrenar el criterio con IA
El criterio mejora con exposición repetida, crítica y publicación real. La IA puede acelerar ese ciclo si se usa correctamente. Un método simple:
- Elige un artefacto de alto impacto de tu semana: un párrafo, una explicación de precios, una etiqueta de dashboard, un email a un cliente clave o una slide decisiva.
- Genera 10 a 20 versiones con un modelo de IA.
- Para cada versión, escribe una sola oración que comience con «falla porque…»
- Reescribe la versión más fuerte con una restricción real: sin buzzwords, una idea por oración, debe reconocer un trade-off real, o debe ser comprensible para un usuario que lo ve por primera vez.
- Publica la versión final en algún lugar real y observa qué sucede.
El objetivo no es dejar que la IA elija por ti. El objetivo es construir un vocabulario de rechazo más preciso. Con el tiempo, esto cambia cómo trabajas: dejas de admirar el polish por sí mismo y te vuelves más rápido detectando la especificidad vacía, el tono prestado y la falsa confianza.
Por qué el buen gusto solo no es suficiente
Aquí la conversación se vuelve más interesante —y más honesta.
Hay una versión fuerte del argumento de «el gusto importa» que silenciosamente reduce al humano a un papel estrecho: la IA genera muchos outputs y el humano está al final del pipeline seleccionando el mejor. Es un rol útil, pero también es demasiado pequeño.
Históricamente, el trabajo importante no surgió solo de la selección desapegada. Surgió de la co-creación bajo restricciones reales. Los builders argumentaron con la realidad, con colaboradores, con presupuestos, con materiales, con plazos y con las consecuencias de equivocarse. Esa fricción importa. Es donde viene la profundidad.
El riesgo es claro: si el valor humano se reduce a la curación, el humano se convierte en un discriminador en un loop mayormente impulsado por máquinas. El buen gusto sin autoría, stakes reales y construcción puede volverse un rol estrecho y eventualmente frágil.
Lo que los founders siguen haciendo que los modelos no pueden hacer
La IA puede generar, recombinar y optimizar contra prompts. Lo que no puede hacer en sentido humano son las partes del trabajo que llevan consecuencias reales. Tres ejemplos son clave:
1. Sostener la responsabilidad
Los productos reales operan bajo consecuencias que no caben limpiamente en un prompt. Confianza, exposición regulatoria, riesgo de outages, capacidad del equipo, confusión del cliente, daño de marca. Un modelo puede sugerir copy para una feature de pagos. No puede sostener la responsabilidad cuando ese copy oscurece una limitación regulatoria y los tickets de soporte se disparan.
2. Trabajar con lo genuinamente nuevo
Las ideas verdaderamente nuevas a menudo parecen incorrectas al principio porque no se parecen al training set. Se sienten incómodas, incompletas o sospechosamente no-estándar. Los humanos pueden sentarse con esa incomodidad y proteger algo temprano y frágil el tiempo suficiente para que se vuelva legible.
3. Elegir la dirección
Las decisiones más importantes no son de formato. Son decisionales: ¿Qué problema vale la pena resolver? ¿Qué trade-off es aceptable? ¿Qué tipo de empresa o producto quieres ser responsable de construir? ¿Qué te niegas a optimizar? Estas no son tareas de post-procesamiento. Son autoría.
Implicaciones para el ecosistema startup en LATAM
Este debate tiene un peso particular en el ecosistema de startups latinoamericanas. La democratización de herramientas de IA significa que un equipo pequeño en Bogotá, Ciudad de México o Buenos Aires puede hoy producir lo que antes requería organizaciones mucho más grandes.
Esa es la buena noticia. El riesgo es que equipos en toda la región empiecen a usar IA para producir productos globalmente pulidos pero contextualmente superficiales. Una interfaz de fintech puede sonar sofisticada y aun así fallar al explicar comportamientos de liquidación, tiempos de procesamiento o expectativas de soporte al usuario local. Un sitio de B2B SaaS puede verse de clase mundial diciendo casi nada que un comprador real reconocería como concreto.
La IA facilita sonar sofisticado. No facilita ser específico. Y en LATAM, donde la confianza del usuario se construye sobre especificidad cultural y contextual, esa distinción es aún más crítica.
Conclusión
El verdadero edge en la era de la IA no es tener mejores vibes que el modelo. Es usar el modelo para eliminar el output promedio más rápido, y luego aplicar juicio humano donde más importa: dirección, especificidad, consecuencia y el coraje de construir algo que no podría haber emergido del promedio estadístico.
El gusto, en este contexto, no es una identidad separada ni un rasgo de personalidad. Es un efecto secundario de prestarle atención seria a la realidad. Crece cuando estudias trabajo fuerte con cuidado, cuando generas muchas opciones sin enamorarte de la primera, cuando aprendes a diagnosticar por qué algo falla y cuando te mantienes cerca del dominio en vez de flotar por encima de él.
La IA hace que el primer borrador sea barato. No hace que el juicio sea automático. No elimina la necesidad de ownership. No reemplaza el trabajo de decidir qué debería existir en primer lugar. Por eso el buen gusto importa más ahora. Y también por eso, solo el gusto no es suficiente.
Profundiza estos temas con nuestra comunidad de founders que ya están usando IA con criterio real.
Fuentes
- https://rajnandan.com/posts/taste-in-the-age-of-ai-and-llms/ (fuente original)
- https://foundercollective.com/blog/taste-is-the-moat/ (fuente adicional)
- https://blog.sshh.io/p/taste-is-not-a-moat (fuente adicional)
- https://anniedabir.substack.com/p/the-democratization-of-good-taste (fuente adicional)
- https://news.ycombinator.com/item?id=46806959 (fuente adicional)
👥 ¿Quieres ir más allá de la noticia?
En nuestra comunidad discutimos las tendencias, compartimos oportunidades y nos ayudamos entre emprendedores. Sin humo, solo acción.
👥 Unirme a la comunidad













