En Resumen

  • Microsoft presentó un amicus curiae apoyando a Anthropic contra el Pentágono, alertando que la designación amenaza sus propios productos Azure y Copilot.
  • El escrito señaló que el DoD se otorgó seis meses de transición, pero aplicó la restricción a contratistas de forma inmediata y sin plazo equivalente.
  • Microsoft advirtió que usar legislación de cadena de suministro contra una firma de IA estadounidense es "sin precedentes" y crea riesgo existencial para toda la industria.

Microsoft tiene hasta $5.000 millones invertidos en Anthropic, mientras que Anthropic se ha comprometido a comprar $30.000 millones en servicios de computación de Azure bajo la alianza. Ese contexto hace que su decisión de presentar un amicus curiae en apoyo a la demanda de Anthropic contra el Departamento de Defensa de Estados Unidos parezca menos un acto de altruismo y más una defensa financiera.

El escrito, presentado el 10 de marzo en San Francisco, argumenta que una orden de restricción temporal que bloquee la aplicación de la designación de "riesgo en la cadena de suministro" del Pentágono serviría al interés público.

La propia Microsoft es un importante contratista del Departamento de Defensa, y esa designación pone en riesgo sus propios productos. El Secretario de Defensa Pete Hegseth ordenó que ningún contratista, proveedor o socio que haga negocios con las fuerzas militares de Estados Unidos pueda realizar actividad comercial alguna con Anthropic—un alcance potencialmente amplio como para afectar los propios productos Copilot y Azure de Microsoft, los cuales incluyen soporte para Claude.

El escrito pone de relieve una contradicción de procedimiento que ha recibido poca atención en la cobertura mediática: el Departamento de Defensa se otorgó a sí mismo un período de transición de seis meses para dejar de utilizar las herramientas de Anthropic, pero aplicó la designación a los contratistas de manera inmediata, sin un plazo equivalente.

Los abogados de Microsoft señalaron esto directamente, indicando que los proveedores tecnológicos deben ahora apresurarse a auditar, rediseñar y readquirir productos en un plazo que el propio gobierno no se impuso a sí mismo.

Microsoft también alertó sobre algo que toca el núcleo del litigio. La autoridad de riesgo en la cadena de suministro invocada—10 U.S.C. § 3252—históricamente ha sido reservada para adversarios extranjeros. Solo una de esas designaciones ha sido emitida públicamente bajo estatutos relacionados, y fue contra Acronis AG, una firma de software suiza con vínculos rusos. Utilizarla contra una startup de inteligencia artificial de San Francisco es, según lo describió Microsoft, "sin precedentes".

El argumento más contundente del escrito es estructural. Si una disputa contractual entre una agencia y una empresa puede desencadenar una lista negra de seguridad nacional, entonces toda empresa que haga negocios con el gobierno federal acaba de heredar una nueva categoría de riesgo existencial. Los abogados de Microsoft describieron un modelo industrial construido sobre servicios interconectados, donde un componente vetado puede paralizar líneas de productos enteras.

Hay una ironía aquí difícil de ignorar. Microsoft es simultáneamente el mayor respaldo de OpenAI—con inversiones valoradas en aproximadamente $135.000 millones—y ahora uno de los defensores más activos de Anthropic en los tribunales.

Por su parte, OpenAI se apresuró a firmar un acuerdo con el Departamento de Defensa horas después de que se conociera la lista negra contra Anthropic, una decisión que generó críticas internas y llevó al CEO de OpenAI Sam Altman a reconocer públicamente que el anuncio "parecía oportunista y descuidado". Microsoft apostó por los dos.

El escrito no llega a respaldar las posturas específicas de Anthropic sobre seguridad en IA en materia de armas autónomas y vigilancia masiva—las dos líneas rojas que desencadenaron el conflicto. En cambio, enmarca el caso en términos que cualquier contratista gubernamental puede entender: debido proceso, transiciones ordenadas y los efectos de weaponizar la legislación de contratación pública por desacuerdos de política.

Lo que Microsoft solicita es una orden de restricción temporal, no un veredicto. La empresa tecnológica quiere que se frene el reloj el tiempo suficiente para que las partes negocien, y para que sus propios productos sigan siendo legalmente desplegables mientras lo hacen.

Lo que está en juego va más allá del contrato de una sola empresa. Si los tribunales permiten que el movimiento del Pentágono se sostenga, entonces cada empresa de inteligencia artificial que vende al gobierno acaba de aprender que las salvaguardas de seguridad pueden reencuadrarse como amenazas a la seguridad nacional. El escrito de Microsoft deja en claro que esa lección no pasa desapercibida para la industria tecnológica en general, y que la empresa no está dispuesta a aprenderla en silencio.

Daily Debrief Newsletter

Start every day with the top news stories right now, plus original features, a podcast, videos and more.