¿Caballo de Troya digital? Verdad sobre derecho a computar
Las leyes del derecho a computar parecen defender un principio justo: acceso igualitario a recursos computacionales. Pero tienen un mecanismo legal incorporado que hace casi imposible regular sistemas de IA por cuestiones de seguridad, privacidad o impacto ambiental. Montana fue la primera en 2025. Ahora se multiplican en EE.UU., y el aparato de lobby detrás de ellas es visible si sabés dónde mirar.
En 30 segundos
- Las “Right to Compute laws” usan el estándar legal de strict scrutiny para bloquear casi cualquier regulación de IA, no solo su acceso
- Montana aprobó la primera en abril 2025; ahora New Hampshire, Ohio y otros estados copian el modelo
- El efecto es el opuesto al que prometen: abren la puerta a deployments sin auditorías de safety, sin validación de bias, sin mechanismos de cierre para infraestructura crítica
- La Unión Europea tiene un modelo completamente opuesto (EU AI Act): clasifica riesgos y regula según nivel, no bloquea el acceso a compute
- Big Tech invirtió > $700 mil millones en infraestructura de IA en 2025-2026 y necesita que estas leyes pasen para evitar requisitos de auditoría
Qué son las Right to Compute laws
Empecemos desde cero. Una Right to Compute law es una ley estatal (por ahora, solo en EE.UU.) que declara que el acceso a recursos computacionales es un derecho fundamental, y que cualquier regulación que restrinja o limite ese acceso debe cumplir con un estándar legal llamado strict scrutiny.
¿Qué significa eso en la práctica? Que quien quiera regular el compute (el gobierno, un regulador) no solo tiene que demostrar que la regulación es legítima, sino que es “demonstrably necessary” y “narrowly tailored” (tan específica que no afecte derechos fundamentales).
Montana fue la primera en abril de 2025 con SB 212. El texto incluye un mecanismo que invertía la carga de prueba completamente: el estado tenía que demostrar que una restricción era necesaria, no que el desarrollador demostrara que era segura. La ley fue redactada (junto con otras similares) por ALEC (American Legislative Exchange Council), una organización que distribuye model legislation a legisladores de todo EE.UU.
El argumento en la superficie: “queremos proteger la innovación y que no haya barreras de entrada al compute.” Eso suena razonable. Más compute, más startups, más IA accesible para todos.
Pero hay un problema: la ley no solo protege el acceso a compute. Protege todo lo que se pueda construir con compute, sin restricciones.
El mecanismo del trojan horse: cómo disfrazan desregulación como derechos
Acá viene lo bueno. El estándar de strict scrutiny es brutal para los reguladores. Históricamente se ha usado en EE.UU. para casos sobre derechos de primera enmienda, privacidad, religión. Es un estándar tan alto que casi ninguna regulación lo pasa.
Las Right to Compute laws lo aplican al compute y, por extensión, a cualquier cosa que se haga con compute. ¿Querés exigir auditorías de bias antes de lanzar un modelo de IA en producción? Tenés que demostrar que es “narrowly tailored” y “demonstrably necessary” para un interés gubernamental compelling. ¿Querés que los desarrolladores validen que un sistema de vigilancia biométrica no tiene errores de falsos positivos? Misma cosa: strict scrutiny. Complementá con ejecutar agentes sin dependencias centralizadas.
El efecto cascada es que regulations sobre seguridad, transparencia, auditoría de modelos, protecciones de privacidad, todas se vuelven casi imposibles de defender legalmente.
Un ejemplo concreto que proponen críticos de estas leyes: si un estado intentara regular los data centers por consumo de energía o agua (tema ambiental), eso podría ser atacado como una restricción al derecho a computar. El gobierno tendría que demostrar que el impacto ambiental es “compelling” lo suficientemente importante como para justificar la restricción. Spoiler: los estándares legales para eso son altos.
Lo interesante es que Montana mismo debilitó, durante la redacción de SB 212, un requirement sobre “shutdown mechanisms” para infraestructura crítica (ej: sistemas de computación en hospitales o redes eléctricas). Se negoció out porque la ley ya estaba en fricción con otros reguladores federales.
Críticas desde seguridad e IA: qué riesgos reales eso abre
Expertos en seguridad de IA, académicos y organizaciones de derechos humanos vinieron con críticas fuertes.
Primero: vulnerabilidad de sistemas críticos. Si desplegás un modelo de IA sin auditoría de seguridad en infraestructura de salud, energía o finanzas, y después falla o causa daño, ¿a quién culpas? La ley te da cobertura legal para no haber hecho esa auditoría si alguien la hubiera exigido.
Segundo: perpetuación de bias y discriminación. Un modelo de IA entrenado con datos sesgados (ej: datos históricos de contratación donde hay discriminación de género) va a replicar eso en las decisiones que toma. Si regulaciones que exigen auditorías de fairness se consideran inconstitucionales bajo strict scrutiny, los únicos que van a auditar son los desarrolladores mismos, que tienen incentivos financieros para no encontrar problemas (si es que los buscan).
Tercero: vigilancia descontrolada. Amnesty International notó que leyes de “simplificación” (como Right to Compute) pueden desbloquear sistemas de vigilancia biométrica sin protecciones de privacidad porque el estándar para regulación se vuelve insuperable.
La pregunta que nadie responde: ¿qué pasó con el balanceador entre innovación y protección? Este modelo dice “innovación a cualquier costo”, punto.
Right to Compute vs EU AI Act: dos modelos opuestos
Para entender lo radical que es Right to Compute, necesitás ver el contraste con la Unión Europea. Cubrimos ese tema en detalle en privacidad frente a plataformas centralizadas.
El EU AI Act (en vigor desde enero 2026 para high-risk) es un modelo “risk-based”. Clasifica sistemas de IA en cuatro categorías según riesgo: minimal risk, limited risk, high risk, y unacceptable risk. Según la categoría, hay diferentes requisitos: modelos high-risk deben tener auditoría, documentación, testing predeployment, un human-in-the-loop. Modelos minimal risk (ej: chatbots) casi no tienen restricciones.
Ese modelo respeta la innovación pero la protege con guardrails. Tenés el derecho a computar, pero tenés también la obligación de validar qué estás computando antes de que afecte a gente de verdad.
Right to Compute hace lo opuesto. No clasifica riesgos. Dice: “el acceso a compute es un derecho fundamental, y cualquier restricción necesita justificación legal comprobada bajo estándar strict scrutiny.” Eso es “minimalist” pero en la dirección de “sin restricciones”.
| Criterio | Right to Compute (EE.UU.) | EU AI Act |
|---|---|---|
| Enfoque | Acceso ilimitado a recursos | Regulación según riesgo |
| Carga de prueba | Gobierno prueba que restricción es “compelling” | Desarrollador prueba que modelo es seguro (high-risk) |
| Categorización | No hay clasificación | Minimal, Limited, High, Unacceptable risk |
| Auditoría previa | No obligatoria; strict scrutiny bloquea requerimientos | Obligatoria para high-risk antes de despliegue |
| Transparencia | Debilitada (clasificada como restricción potencial) | Obligatoria según nivel de riesgo |
| Thresholds de compute | Sin umbral específico | 10^25 FLOPS para clasificación automática como high-risk |
| Protección de derechos fundamentales | Solo “derecho a computar”; otros derechos subordinados | Privacidad, dignidad, discriminación van primero; compute es medio, no fin |

La tabla lo muestra: son sistemas completamente antagónicos. Uno dice “compute primero”. El otro dice “valores fundamentales primero, compute es un medio”.
El costo ambiental que nadie menciona (pero es el verdadero driver)
Acá está lo que mueve dinero realmente.
Los data centers ya consumen 1% a 1.5% de toda la electricidad global (220-320 TWh al año, según estimaciones de 2021-2024). La proyección es que lleguen a consumir 130 gigawatts para 2030, lo que sería 12% del consumo total de EE.UU.
Una solicitud de ChatGPT consume aproximadamente 10 veces más energía que una web query normal. Un data center de 100 megawatts consume tanta agua como 2,600 hogares. Multiplicalo por los cientos de data centers que Big Tech está construyendo para entrenar y servir modelos de IA. El número es absurdo.
Ahora ponela de esta forma: si tuvieras regulaciones sobre consumo de energía o agua en data centers (como propone California o la UE), eso te limita el deployment de IA masivo que planeaste. ¿Solución? Una ley que diga que restringir el acceso a compute es inconstitucional. Listo. Regulaciones ambientales caen bajo presión legal. Relacionado: acceso a recursos de cómputo e IA.
Microsoft, Amazon y otros gastaron millones en 2024-2025 bloqueando regulaciones ambientales sobre data centers en foros legislativos (sin éxito, pero lo intentaron). Con Right to Compute, tienen un argumento legal más fuerte.
Estados en fila para copiar el modelo
Montana fue primero. Ahora la cascada es real.
New Hampshire, Ohio, South Carolina e Idaho están considerando leyes similares según reportes de 2026. ALEC sigue distribuyendo el modelo legislation para que legisladores lo adapten localmente. Cada legislatura lo copia, lo tweakea un poco, y lo pasa.
Eso sí, no es por convicción ideológica de los legisladores. Es porque ALEC es donde se junta el dinero para campañas legislativas. Big Tech financia a ALEC. ALEC redacta el texto. ALEC lo distribuye. Legisladores lo pasan. Sistema funcionando como se pensó.
A nivel federal, la Trump administration (diciembre 2025) emitió un executive order desregulando IA broadly, lo que le da aire adicional a iniciativas como Right to Compute. La intersección de presión estatal + federal es letal para reguladores que querían protecciones mínimas.
El dinero detrás de “los derechos”
Acá es donde el cuento se pone evidente.
Big Tech gastó más de 113 millones de dólares en lobby en la Unión Europea durante 2023 alone (57% aumento desde 2020). Solo 10 empresas principales (Google, Microsoft, Amazon, Meta, etc.) sumaron 40 millones de dólares en 2023. Para 2026, con la carrera de IA, ese número se multiplicó.
En EE.UU., el gasto es similar o mayor. Y gran parte va a financiar legisladores que adopten leyes como Right to Compute.
La inversión total de Big Tech en infraestructura de IA en 2025-2026 superó los 700 mil millones de dólares. Eso incluye data centers, modelado, investigación. Tenés que proteger ese activo legalmente. ¿Cómo? Asegurando que los gobiernos no puedan regularte sobre seguridad, privacidad, o impacto ambiental. Right to Compute es el vehículo legal para eso.
Ojo: no estoy diciendo que los legisladores de Montana sean corruptos. Estoy diciendo que operan en un ecosistema de presión política donde el dinero fluye en una dirección: desregulación. Y cuando alguien te trae una ley redactada por expertos, financiada, con ejemplos de otros estados que ya la pasaron, es fácil votar que sí. Esto se conecta con lo que analizamos en control centralizado de infraestructura.
Errores comunes sobre Right to Compute
“Es solo sobre acceso a recursos, no sobre regulación de productos”
Falso. El strict scrutiny que imponen estas leyes se aplica a cualquier regulación que limite compute, directa o indirectamente. Si vos decís “sistemas de vigilancia biométrica necesitan auditoría predeployment”, estás limitando el uso de compute para vigilancia. Bajo strict scrutiny, eso es una restricción al derecho a computar.
“Hay excepciones para seguridad nacional y salud pública”
Parcialmente. Sí hay excepciones listadas, pero son tan narrowly scoped que un abogado corporativo con presupuesto las desafía en corte. “Seguridad nacional” suena amplio, pero un juez que aplique strict scrutiny va a preguntar: “¿exactamente qué amenaza a seguridad nacional de esta regulación específica?” Es un interrogatorio.
“Argentina no está afectada, esto es un problema de EE.UU.”
Equivocado. Si EE.UU. adopta Right to Compute en suficientes estados, las regulaciones de IA en Argentina (ya débiles, hay que decirlo) van a estar desincronizadas. Data centers que sirven latinoamérica estarán bajo jurisdicción de estados sin regulación. Los modelos entrenados en esos data centers van a circular en Argentina sin auditorías que cualquier estándar mínimo exigiría.
Preguntas Frecuentes
¿Qué son las Right to Compute laws exactamente?
Leyes que declaran el acceso a recursos computacionales como un derecho fundamental protegido bajo strict scrutiny legal. Eso significa que cualquier regulación que limite o restrinja compute necesita demostración de que es “compelling” e inevitable. Montana fue la primera en abril 2025.
¿Por qué se considera un “trojan horse” para desregular IA?
Porque el strict scrutiny que impone hace casi imposible legalmente implementar regulaciones sobre seguridad, auditoría de bias, transparencia, o impacto ambiental. La ley no dice “no regules IA”, pero el mecanismo legal la hace una restricción tan fuerte que las regulaciones de facto se colapsan.
¿Cómo se diferencia de la regulación europea de IA?
Completamente opuesto. La UE AI Act clasifica riesgos y regula según nivel. Right to Compute bloquea casi cualquier clasificación de riesgo con un estándar legal imposible de satisfacer. Una protege derechos fundamentales; la otra prioriza acceso ilimitado a compute.
¿Quién está detrás de estas leyes?
ALEC (American Legislative Exchange Council) redacta y distribuye el modelo. Big Tech financia ALEC. El sistema es transparente si sabés buscarlo: dinero → modelo legislation → distribución a legisladores → aprobación estatal.
¿Qué impacto tiene en privacidad y seguridad?
Potencialmente grave. Sin regulaciones que exijan auditoría previa de sistemas que procesen datos personales o que operen en contextos críticos (salud, justicia, vigilancia), el único validador es el desarrollador mismo. Los incentivos están desalineados: no quieren encontrar problemas.
Conclusión
Las Right to Compute laws usan un argumento que suena progresista (acceso igualitario a recursos) para implementar lo opuesto: desregulación total de sistemas de IA sin protecciones mínimas de seguridad, privacidad o impacto ambiental.
El mecanismo es legal, no técnico. Usan strict scrutiny, un estándar tan alto que hace imposible que gobiernos regulen. Es ingeniero legalmente para que parezca que defienden derechos cuando en realidad defienden ganancias.
Montana fue el piloto. Ahora se replica. La Unión Europea tomó el camino opuesto con AI Act: regulación según riesgo, no bloqueo absoluto. Ese modelo no es perfecto, pero al menos intenta balancear innovación con protección.
¿Argentina va a copiar Right to Compute? Probablemente no, porque no hay suficiente lobby local y los data centers principales están en EE.UU. Pero el efecto cascada es real: si modelos de IA se entrenan en jurisdicciones sin regulación, esos modelos circulan aquí sin auditoría. Es un problema global, aunque el origen sea legal y local en EE.UU.
Fuentes
- Gizmodo — Right to Compute laws are spreading across the US as electricity bills skyrocket
- ALEC — Right to Compute Act (model policy)
- Montana SB 212 — Right to Compute legislation
- VKTR — Right to Compute Laws: Critical risks and implications
- Amnesty International — EU simplification laws impact on human rights






