De referente ético a empresa que aprieta las tuercas: el giro de Anthropic
Anthropic cerró en febrero de 2026 una ronda Serie G de 30.000 millones de dólares que la valoró en 380.000 millones de dólares, convirtiéndose en la segunda mayor captación privada de capital en la historia de la tecnología. Un hito impresionante. Y sin embargo, los desarrolladores que fueron sus primeros fans están cada vez más molestos.
Esa tensión no es una coincidencia. Es la consecuencia lógica de lo que pasa cuando una empresa deja de ser un proyecto de investigación financiado por buena voluntad y se convierte en una máquina de crecer a cualquier escala. El problema es que el coste de ese crecimiento lo están pagando, en parte, los mismos founders y devs que la pusieron en el mapa.
¿Qué está cambiando exactamente en Claude para los desarrolladores?
Durante finales de 2025 y los primeros meses de 2026, Anthropic implementó una serie de cambios que pasaron relativamente desapercibidos en la prensa generalista pero que sacudieron los foros y comunidades de desarrolladores:
👥 ¿Quieres ir más allá de la noticia?
En nuestra comunidad discutimos las tendencias, compartimos oportunidades y nos ayudamos entre emprendedores. Sin humo, solo acción.
👥 Unirme a la comunidad- Rate limits más agresivos: El plan estándar de la API de Claude ofrece apenas 60 solicitudes por minuto (RPM), frente a las 3.500 RPM que ofrece OpenAI en su Tier 1 equivalente. Para un founder construyendo un producto de IA con tráfico real, esa diferencia no es menor — es un cuello de botella que obliga a invertir en lógica de reintentos o cambiar de proveedor.
- Throttling de suscripciones: En marzo de 2026, Anthropic implementó limitaciones de sesión de 5 horas en horarios pico (5am–11am hora del Pacífico) para contener la demanda. El resultado: usuarios que pagan entre 20 y 200 dólares al mes empezaron a toparse con bloqueos sin previo aviso.
- Usuarios de Claude Code agotando cuotas inesperadamente: En abril de 2026, la propia Anthropic reconoció que sus usuarios estaban consumiendo sus límites de uso mucho más rápido de lo esperado. Lo catalogaron como «máxima prioridad», pero el daño ya estaba hecho: flujos de trabajo interrumpidos, proyectos paralizados y confianza erosionada.
- Cambio en condiciones de uso con terceros: A principios de abril de 2026, Anthropic modificó sus términos para que las suscripciones de pago ya no cubrieran el uso en plataformas de terceros como OpenClaw. Quien quisiera usar Claude a través de herramientas externas tendría que pagar por separado la API. El resultado fue una oleada de cancelaciones masivas, incluyendo usuarios del plan Max de 200 dólares mensuales.
Para el ecosistema de desarrolladores, esto no es solo un inconveniente técnico. Es un cambio de contrato social.
¿Por qué Anthropic tenía esa reputación de «la empresa ética»?
Anthropic fue fundada en 2021 por Dario Amodei, Daniela Amodei y varios ex investigadores de OpenAI que salieron precisamente por discrepancias sobre el rumbo comercial y la seguridad de los modelos. La promesa implícita era clara: aquí priorizamos la IA segura, alineada y responsable, no solo la escala a toda costa.
Esa narrativa caló profundo entre los desarrolladores. Muchos founders y equipos técnicos eligieron Claude no solo por sus capacidades — que son reales y competitivas — sino porque querían apostar por una empresa que parecía tener valores más allá del crecimiento a cualquier precio.
El problema es que esa reputación choca frontalmente con la realidad de una empresa que necesita justificar una valoración de 380.000 millones de dólares ante sus inversores.
Los números que explican por qué Anthropic aprieta
Con una tasa de ingresos recurrentes (run-rate) que ya supera los 14.000 millones de dólares anuales — con Claude Code solo generando más de 2.500 millones de dólares en run-rate, el doble que a principios de 2026 — Anthropic ya no es una startup de investigación. Es una empresa de hipercrecimiento con los contadores corriendo.
El número de clientes que gastan más de 100.000 dólares al año en Claude se ha multiplicado por siete en el último año. Eso lo dice todo: el foco ha dejado de estar en el desarrollador individual que experimenta con la API y está ahora en el cliente enterprise que firma contratos de seis cifras.
Los modelos de negocio también han evolucionado hacia mayor complejidad: Claude Haiku 4.5 cuesta ahora 1$/5$ por millón de tokens de entrada/salida; Claude Sonnet 4.6, 3$/15$; y Claude Opus 4.6, 5$/25$. Hay descuentos del 50% para procesamiento en lote y del 90% en caché de prompts — mecanismos que requieren ingeniería adicional que no todos los equipos pequeños tienen capacidad de implementar.
¿Qué significa esto para tu startup?
Si estás construyendo un producto sobre la API de Claude, o si estás evaluando qué modelo usar, este cambio de comportamiento de Anthropic tiene implicaciones concretas que debes considerar hoy:
- Evalúa tu exposición a un solo proveedor: Si tu producto depende al 100% de la API de Claude y los límites de uso te afectan directamente en producción, estás asumiendo un riesgo de negocio innecesario. El throttling de marzo de 2026 fue una señal clara: cuando hay tensión en la infraestructura, quien paga menos es quien sufre más.
- Implementa una capa de abstracción sobre tus llamadas a LLMs: Herramientas como LiteLLM, PortKey o un proxy propio te permiten cambiar de modelo o proveedor sin reescribir tu producto. Si no lo tienes, es la primera deuda técnica que deberías resolver esta semana.
- Analiza el coste real de tus llamadas: Con Claude Sonnet 4.6 a 3$/15$ por millón de tokens, una aplicación con 10.000 usuarios activos puede tener costes muy distintos según el tamaño medio de tus contextos. Usa el procesamiento por lotes cuando puedas — el descuento del 50% es real y puede cambiar tu unit economics.
- Compara en benchmarks propios, no en los de los vendors: Los precios de OpenAI GPT-4o y Google Gemini evolucionan a ritmo similar. Lo que importa para tu negocio no es quién tiene mejor marketing de seguridad — es quién da la mejor relación coste/rendimiento para tu caso de uso específico.
- Monitorea los cambios de términos de uso: El cambio de abril de 2026 con plataformas third-party cogió desprevenidos a muchos equipos. Suscríbete a los changelogs de política de uso de tus proveedores de IA como si fueran actualizaciones críticas de dependencias.
El patrón que va más allá de Anthropic
Sería un error ver esto como un problema exclusivo de Anthropic. Lo que está ocurriendo es una tendencia estructural en el mercado de IA: los proveedores que usaron precios agresivos y generosas políticas de uso para capturar cuota de mercado están ahora ajustando las condiciones ahora que tienen tracción suficiente.
OpenAI lo hizo antes con GPT-4. Google lo está haciendo con Gemini. Anthropic simplemente tiene la particularidad de haber construido su diferenciación sobre un discurso ético que hacía más dolorosa esta transición.
El riesgo real para las startups que construyen sobre estos modelos no es que los precios suban — es que las condiciones cambian sin mucho aviso y sin compensación por el coste de adaptación. Esa es la verdadera factura que pagan los founders que apostaron por un solo proveedor.
La IA como infraestructura de negocio requiere la misma disciplina que cualquier otro proveedor crítico: contratos claros, alternativas listas y la capacidad de migrar si las condiciones dejan de ser razonables. La época en que podías confiar en la «bondad» de un proveedor de IA porque su fundador daba buenas charlas en conferencias ha terminado.
Fuentes
- Xataka — Anthropic fue el don’t be evil de la IA para los desarrolladores (fuente original)
- InfoWorld — Anthropic throttles Claude subscriptions to meet capacity
- The Register — Claude devs complain about surprise usage limits
- Articulo14 — Anthropic comete un grave error con Claude cambiando condiciones de herramientas externas
- Colglob — Usuarios de Claude Code agotan límites de uso más rápido de lo esperado
- Finect — Anthropic capta 30.000 millones en la segunda mayor ronda de la historia
- Hackceleration — Opinión sobre la API de Anthropic Claude y su rate limiting
- Donweb — Limitaciones de Claude Opus 2026: análisis real
- El País — Anthropic sacude la euforia de la IA con megarronda de 30.000 millones
👥 ¿Quieres ir más allá de la noticia?
En nuestra comunidad discutimos las tendencias, compartimos oportunidades y nos ayudamos entre emprendedores. Sin humo, solo acción.
👥 Unirme a la comunidad













