Así lucra Anthropic con los desarrolladores
Anthropic pasó de controlar el 24% de la cuota de mercado global de APIs de IA a dominar el 73% en menos de un año, no porque su tecnología sea la mejor (OpenAI y Meta tienen modelos comparables), sino porque implementó un playbook que conocemos bien en SaaS: subsidiar el acceso inicial, crear dependencia en desarrolladores, y luego cerrar el grifo. En enero de 2026 activaron salvaguardas que bloquearon herramientas de terceros como OpenCode. A esto se le suma el conflicto que tuvieron con el Pentágono: rechazaron relajar sus restricciones de seguridad para ganar un contrato de USD 200 millones. El resultado es un modelo de negocio que pone la rentabilidad por delante del acceso, y que obliga a desarrolladores a elegir: pagar más o buscar alternativas.
En 30 segundos
- Anthropic implementó un modelo de “subsidiar, addict, extract”: precios bajos iniciales para capturar desarrolladores, luego restricciones técnicas y límites de uso.
- En enero de 2026, bloquearon herramientas de terceros como OpenCode. Razón oficial: costos de infraestructura. Razón real: forzar usuarios hacia su API pagada.
- Claude tiene caps diarios/semanales, límites por tokens/minuto, y un sistema de tiers con depósitos para levantar limits.
- OpenAI y Google hacen lo mismo: rationing es la nueva norma en 2026 para todas las empresas de IA.
- El Pentágono pidió a Anthropic relajar restricciones para vigilancia masiva; Anthropic se negó y perdió USD 200 millones en contrato.
Anthropic Es una empresa de inteligencia artificial fundada en 2021 que desarrolla Claude, un asistente conversacional de inteligencia artificial. Su enfoque principal es en seguridad y alineación de sistemas de IA.
El rationing en empresas de IA es un conjunto de límites técnicos implementados para controlar costos operacionales y maximizar ingresos. Estos límites pueden ser suaves (advertencias, throttling) o duros (bloqueos completos). En 2026, las tres mega-empresas de IA — Anthropic, OpenAI y Google — adoptaron variantes de este modelo porque la realidad económica es brutal: los costos de infraestructura son insostenibles a los precios que promocionaron hace dos años (ponele que GPU H100 cuesta USD 15-20 por hora en compute puro, sin incluir soporte, almacenamiento, ancho de banda).
La estrategia de Anthropic: subsidios, dependencia y control
Anthropic ejecutó el playbook de forma casi textual: en 2024 lanzó precios agresivos para la API (USD 3 por millón de tokens de entrada), creó una comunidad fuerte de desarrolladores dependientes de su producto (especialmente con Claude Code), y una vez que alcanzó una posición dominante en el mercado, comenzó a implementar restricciones.
Los números lo dicen todo. En enero de 2025, Anthropic tenía el 24% de la cuota de mercado de APIs. Un año después, según reportes del sector, pasó a controlar el 73%. Eso no fue por innovación: fue por precio y accesibilidad. Y luego, cuando el mercado estuvo cautivo, vinieron los límites.
El contexto geopolítico acelera todo. El Departamento de Defensa de EE.UU. necesitaba una alternativa a OpenAI por razones de soberanía tecnológica. En julio de 2025, firmaron un contrato de USD 200 millones con Anthropic. Pero en enero de 2026, el Secretario de Defensa pidió a Anthropic que relajara sus restricciones de seguridad para permitir “cualquier uso legal”, incluyendo vigilancia masiva doméstica y desarrollo de armas completamente autónomas. Anthropic se negó (sí, en serio). Eligieron ética sobre dinero. O al menos, eso es lo que comunicaron públicamente.
Restricciones técnicas: cómo Claude implementa límites de uso
Claude no te bloquea de repente. Lo hace con gradualidad, como un camarero que va cerrando la barra poco a poco (primero cierra una sección, luego otra, y cuando querés pedir algo ya no hay opción).
El sistema funciona así: cada usuario tiene un cap diario en tokens procesados. Si sos free tier, capaz 100k tokens/día. Si pagás USD 20/mes (Claude Pro), 500k tokens/día. Si usás la API, hay límites por minuto (tokens/minuto, requests/minuto) que varían según tu tier. Y si necesitás más, podés hacer un “top-up”: depositar dinero para levantar temporalmente los límites.
Fast mode, lanzado en 2025, cuesta 6x más que el modo estándar. Es su forma elegante de decir: “si necesitás urgencia, pagá el triple”. Eso sí, funciona — claudeé una query compleja en 8 segundos en vez de 45.
El modelo de tiers es donde la cosa se pone oscura. Claude tiene visibilidad sobre cuándo estás cerca del límite, pero no te muestra exactamente cuál es tu límite diario o semanal. Es un poco como tener una tarjeta de crédito donde no sabés el límite hasta que lo golpeás.
El bloqueo a herramientas de terceros y su impacto
OpenCode fue uno de los primeros en sufrir. Esta herramienta (61 mil estrellas en GitHub, comunidad activa) permitía acceder a Claude desde VS Code sin pagar, usando una sesión browser. En enero de 2026, Anthropic activó salvaguardas que bloquearon a OpenCode con un error específico: “Rate limit exceeded” (aunque realmente era un bloqueo a la herramienta, no un límite legítimo de rate). Para más detalles técnicos, mirá cómo plataformas como GitHub manejan tus datos.
David Heinemeier Hansson, el creador de Ruby on Rails, tuiteó: “very customer hostile” (muy hostil con el cliente). Tenía razón. No fue transparencia, no fue “decidimos cambiar nuestros términos”, fue un bloqueo silencioso a una herramienta que competía con su modelo de negocio.
¿Por qué? Porque OpenCode permitía a desarrolladores acceder a Claude sin la API pagada. Eso significa que Anthropic no tenía visibilidad de quién estaba usando qué, no podía rastrear tokens, no podía imponer límites. Era una fuga de potencial revenue.
La respuesta de la comunidad fue predecible: forks de OpenCode, proyectos alternativos, y una ola de desarrolladores migrando a DeepSeek o probando llama en local. Ojo con esto — el bloqueo probablemente haya acelerado la adopción de alternativas open source en más de lo que Anthropic calculó.
El conflicto con el Pentágono: ética vs dinero
Acá es donde la historia se pone interesante (porque en general, las empresas de tech rara vez rechazan dinero del Pentágono).
El Departamento de Defensa ofrecía USD 200 millones para que Anthropic relajara sus restricciones internas. La petición era específica: permitir vigilancia masiva doméstica y desarrollo de armas autónomas completamente controladas por IA. Anthropic dijo que no. No “vamos a negociar”, no “déjenos un tiempo”. Simplemente rechazaron el dinero.
¿Fue principios o fue marketing? La verdad es que probablemente fue ambos. Anthropic tiene un positioning fuerte alrededor de “AI safety” (IA segura). Doblegarse al Pentágono habría destruido eso. Pero también es cierto que rechazar USD 200 millones es un acto extremo, y probablemente calcula que sus restricciones (y su branding de empresa “ética”) le traerán más dinero a largo plazo que un contrato militar de corto plazo.
Lo que no queda del todo claro es si el Pentágono eventualmente encontrará otra forma de conseguir eso (¿OpenAI? ¿Meta?) o si simplemente se resignará a usar Claude con restricciones. Te puede servir nuestra cobertura de las herramientas de IA que usan los desarrolladores.
Costos reales: tabla comparativa de APIs en marzo 2026
| Proveedor | Modelo | Precio entrada (por M tokens) | Precio salida (por M tokens) | Costo por artículo 2000 tokens* | Cache hits (si aplica) |
|---|---|---|---|---|---|
| Anthropic | Claude Opus 4.6 | USD 5 | USD 25 | USD 0.065 | 90% descuento en tokens cacheados |
| OpenAI | GPT-5.2 | USD 1.75 | USD 14 | USD 0.038 | 50% descuento con batch |
| DeepSeek | V3.1 | USD 0.15 | USD 0.60 (en caché) | USD 0.0018 | Caching nativo, muy barato |
| Meta | Llama 3.3 (API) | USD 0.30 | USD 1.20 | USD 0.004 | No disponible |

*Cálculo aproximado asumiendo 1500 tokens de entrada, 500 de salida. Los precios varían según volumen, país y términos especiales.
Mirando la tabla, el modelo de negocio de Anthropic se explica solo. Claude cuesta 36x más que DeepSeek por el mismo trabajo. En volumen (una empresa procesando millones de tokens/mes), esa diferencia es la diferencia entre rentabilidad y pérdida operacional.
¿Y por qué la gente paga? Porque Claude realmente es mejor en ciertas cosas (reasoning, código, alucinaciones menores). Pero esa ventaja comprime cada trimestre a medida que DeepSeek, Meta y otros cierren la brecha.
¿Son sostenibles estos modelos sin subsidios?
Acá está el verdadero punto. Ninguna empresa de IA es sostenible con los precios que ofrecen si depende 100% de ingresos por API.
Anthropic tiene respaldo financiero fuerte (inversión total >USD 5 mil millones desde su fundación). OpenAI funciona dentro del ecosistema Microsoft (que invirtió USD 13 mil millones). Google tiene recursos casi infinitos. Pero los analistas del sector (reportes de Sequoia Capital, Insight Partners) señalan que dependen de subsidios indirectos: contratos estatales (Pentágono, DARPA), esfuerzos de R&D financiados por gobiernos, y expectativas de IPO futuras.
La retención es problemática. Las startups que usan APIs de IA en 2025 mostraban >15% de abandono mensual según algunos reportes. El abandono aumenta cuando suben precios. Los precios suben cuando se reduce el margen. El margen se reduce cuando el modelo de negocio base (puro consumo de tokens) no genera suficiente ingresos.
Entonces, ¿qué hacen? Implementan rationing (limitan el acceso para subir precios), lanzan características de pago (Fast mode, Extended context), y buscan negocios de empresa (B2B con presupuestos más grandes). Es el playbook histórico de SaaS, pero aplicado a IA. Complementá con la relación entre Microsoft y GitHub.
Lo que no está claro es cuán largo puede ser el runway. Si en tres años desaparece la competencia open source (DeepSeek no cierra la brecha), entonces sí, Anthropic tiene moat. Si DeepSeek y Meta siguen bajando costos, entonces los modelos de negocio de las mega-empresas de IA entran en crisis.
Alternativas open source que evitan el rationing
DeepSeek V4 está a días de lanzarse (marzo 2026). Los benchmarks filtrados sugieren que empareja a Claude en razonamiento y los supera en velocidad y costo (la rumoreada versión MoE con 37B parámetros activos).
Llama 3.3 de Meta es accesible gratuitamente y ya tiene buena performance. La ventaja de open source es que podés correr el modelo en tu propia infraestructura: no hay rationing porque vos controlás el compute.
El trade-off es real: soporte comercial vs libertad total. Si usás Claude API y te cae una restricción, podés escribir un ticket a Anthropic. Si corres Llama en tu servidor y se rompe algo, sos vos quien arregla.
Pero para empresas grandes, especialmente en Latinoamérica donde los costos de GPU bajaron, correr modelos abiertos en local empieza a hacer sentido. El modelo de negocio de Anthropic (vender acceso, no desarrollar software) podría entrar en crisis si la mayoría de usuarios opta por eso.
Errores comunes al navegar este escenario
1. Creer que la restricción es temporaria
No es. Los límites de rationing implementados en enero 2026 van a quedarse. Anthropic y cía van a afinarlo, pero la estrategia es permanente: controlar la demanda, maximizar ingresos por usuario. Ampliamos el tema en modelos de IA con filosofías más transparentes.
2. No calcular el TCO real
Si tu startup procesa 100 millones de tokens/mes, una opción cuesta USD 500/mes, la otra USD 15,000/mes. Pero la barata (DeepSeek) requiere mantener servidores. El TCO (total cost of ownership) incluye compute, DevOps, training, on-call. A veces la API cara termina siendo más barata que self-hosted. Sobre eso hablamos en alternativas a los modelos de IA dominantes.
3. Pensar que podés escapar solo a open source
Llama y DeepSeek son buenos, pero no están al nivel de Claude para ciertos tasks (reasoning complejo, alucinaciones controladas). La estrategia ganadora probablemente es híbrida: pequeñas consultas con DeepSeek (local, barato), consultas críticas con Claude (caro, confiable). Mirá también opciones alternativas de inteligencia artificial.
Preguntas Frecuentes
¿Por qué Anthropic limitó el uso de Claude?
Por costos de infraestructura insostenibles. GPU, ancho de banda, almacenamiento, talento para operar esto cuesta millones de dólares diarios. Los precios que promocionaron en 2024 (USD 3 por millón de tokens) no cubren esos costos. El rationing permite subir precios de facto: si limitás el acceso, los usuarios que realmente lo necesitan pagan más (Fast mode, top-ups, tiers premium).
¿Cuál es el costo real de usar la API de Claude?
Entrada: USD 5 por millón de tokens. Salida: USD 25 por millón. Un artículo de 2000 tokens típico cuesta entre USD 0.05-0.10. Pero si usás Fast mode, multiplica por 6. Si te frenan por límites, pagas depósitos para levantar restricciones (sin transparencia clara de cuánto cuesta).
¿Qué tan alternativas hay a Anthropic?
Varias, con trade-offs. OpenAI tiene mejor ecosystem pero precios similares. DeepSeek es 36x más barata pero menos confiable para tasks críticos. Llama es gratuita pero requiere infraestructura. La respuesta correcta depende de tu caso de uso: si necesitás confiabilidad máxima, Claude. Si necesitás optimizar costo, DeepSeek en local.
¿Cuál es el ángulo del Pentágono en todo esto?
EE.UU. necesita una alternativa a OpenAI (que también tiene restricciones pero históricamente colaboró con el Departamento de Defensa). Anthropic fue la opción, pero cuando pidieron relajar restricciones de seguridad, Anthropic se negó públicamente. Eso dejó al Pentágono sin opción: o usa Claude con restricciones o busca otra empresa. Probablemente eventualmente ceda y Anthropic adapte algo, pero por ahora, el ética de Anthropic prevalece (según lo que comunicaron).
¿Cuáles son las chances de que DeepSeek o Llama reemplacen a Claude?
En el corto plazo (2026-2027), bajo. Claude sigue siendo superior en ciertas áreas. Pero en el mediano plazo (2028+), las chances suben si DeepSeek y Meta cierran la brecha de calidad. El diferencial de precio es tan grande (36x) que sería irracional no migrar si la calidad fuera paridad. Eso pone presión en Anthropic a innovar o perder mercado.
Qué está confirmado / Qué no
Confirmado: Anthropic bloqueó OpenCode y herramientas similares en enero 2026. El contrato del Pentágono fue de USD 200 millones. El Secretario de Defensa pidió relajar restricciones. Anthropic rechazó la solicitud públicamente. Precios de APIs están documentados. Cuota de mercado pasó de 24% a 73% entre enero 2025 y enero 2026.
Pendiente de confirmación independiente: Exactamente cuál es el algoritmo de rationing (cómo calcula Anthropic tus límites diarios). Si el bloqueo a OpenCode fue una decisión estratégica o fue realmente un problema técnico. Cuánto impactó el bloqueo en la migración a alternativas. Si Anthropic y el Pentágono eventualmente llegaron a un acuerdo tras bambalinas.
Conclusión
El rationing de IA en 2026 es síntoma de que el modelo de negocio de “vender acceso a modelos base” es insostenible a gran escala. Anthropic, OpenAI y Google implementaron límites técnicos que son económicamente necesarios pero culturalmente impopulares. Bloquearon herramientas de terceros que competían con su modelo de ingresos. Y cuando se enfrentaron a presión del Pentágono, al menos públicamente, priorizaron ética sobre dinero (aunque sea temporariamente).
El cambio real viene del lado de la oferta: DeepSeek, Llama y otros modelos abiertos están bajando drasticamente el costo de acceso. En tres años, si mantienen la trayectoria de mejora, la diferencia de precio (36x) combinada con calidad equivalente va a hacer insostenible el modelo de Anthropic. Eso no significa que Anthropic fracase — probablemente pivot a otras áreas (herramientas, consultorías, enterprise software). Pero el día de la venta pura de API tiene fecha de vencimiento.
Para desarrolladores en Latinoamérica: evalúa el total cost of ownership, no solo el costo por token. Si tus costos de infraestructura son bajos (instances en AWS Argentina, DevOps local), modelar DeepSeek o Llama en local puede valer más que pagar el Premium de Claude. Si necesitás soporte comercial y confiabilidad extrema, Claude sigue siendo la opción. Pero mantén un plan B — el mercado está fragmentándose rápido.
Fuentes
- The Rationing: AI companies are using the “subsidize, addict, extract” playbook — Análisis original del patrón de negocio de Anthropic
- Anthropic desafía al Pentágono y rechaza relajar límites para uso militar de su IA — Infobae, confirmación del conflicto de seguridad
- Precios oficiales de Anthropic — Documentación de costos de API actualizados a marzo 2026
- Anthropic duplica los límites de uso de Claude: promoción temporal y contexto tecnopolítico — IEBSCHOOL, análisis de cambios de límites 2025-2026
- Anthropic bloquea OpenCode y herramientas de terceros: qué ha pasado — Resumen técnico del bloqueo de enero 2026






