Anthropic Elimina Compromiso Clave de Seguridad en su Política de IA Bajo Presión Competitiva

Reportes muestran que tanto Anthropic como OpenAI están revisando sus compromisos de seguridad en medio de una creciente inversión y competencia.

Por Jason Nelson

5 min lectura

Anthropic ha eliminado un compromiso central de seguridad de su Política de Escalado Responsable, según un reporte de TIME. Los cambios flexibilizan un compromiso que antes impedía al desarrollador de Claude entrenar sistemas de IA avanzados sin garantías de seguridad establecidas.

El movimiento redefine cómo la empresa se posiciona en la carrera de la IA frente a sus rivales OpenAI, Google y xAI. Anthropic se ha presentado durante mucho tiempo como uno de los laboratorios más enfocados en la seguridad de la industria, pero bajo la política revisada, ya no promete detener el entrenamiento si las medidas de mitigación de riesgos no están completamente en su lugar.

"Sentimos que no ayudaría a nadie que dejáramos de entrenar modelos de IA", dijo el director científico de Anthropic, Jared Kaplan, a TIME. "Realmente no sentimos, con el rápido avance de la IA, que tuviera sentido para nosotros asumir compromisos unilaterales… si los competidores están avanzando a toda velocidad".

El cambio se produce mientras Anthropic se encuentra inmersa en una disputa pública con el Secretario de Defensa de EE.UU. Pete Hegseth por negarse a otorgar al Pentágono acceso completo a Claude, convirtiéndose en el único laboratorio de IA importante entre Google, xAI, Meta y OpenAI en adoptar esa postura.

Edward Geist, investigador senior de políticas en RAND Corporation, señaló que el enfoque anterior en "seguridad de la IA" surgió de una comunidad intelectual específica que precedió a los grandes modelos de lenguaje actuales.

"Hace unos años existía el campo de la seguridad en IA", dijo Geist a Decrypt. "La seguridad en IA estaba asociada con un conjunto particular de puntos de vista que surgieron de la comunidad de personas que se preocupaban por la IA poderosa antes de que tuviéramos estos LLMs".

Geist afirmó que los primeros defensores de la seguridad en IA trabajaban desde una visión muy diferente de cómo luciría la inteligencia artificial avanzada.

"Terminaron conceptualizando el problema de una manera que, en algunos aspectos, imaginaba algo cualitativamente diferente de estos LLMs actuales, para bien o para mal", agregó Geist.

Geist también indicó que el cambio de lenguaje envía una señal a inversores y legisladores.

"En parte es una señal para diversas audiencias de que muchas de estas empresas quieren dar la impresión de que no están frenando en la competencia económica por preocupaciones sobre 'seguridad en IA'", señaló, añadiendo que la terminología misma está cambiando para adaptarse a los tiempos.

Anthropic no es la única en revisar su lenguaje de seguridad.

¿Qué define la seguridad en la IA?

Un reciente reporte de la organización de noticias sin fines de lucro The Conversation destacó cómo OpenAI también modificó su declaración de misión en su presentación ante el IRS de 2024, eliminando la palabra "safely".

La declaración anterior de la empresa prometía desarrollar IA de propósito general que "beneficiara a la humanidad de forma segura, sin estar condicionada por la necesidad de generar retorno financiero". La versión actualizada ahora establece como objetivo "garantizar que la inteligencia artificial general beneficie a toda la humanidad".

"El problema con el término seguridad en IA es que nadie parece saber exactamente qué significa", afirmó Geist. "Aunque el término seguridad en IA también era objeto de debate".

La nueva política de Anthropic enfatiza medidas de transparencia como la publicación de "hojas de ruta de seguridad en la frontera" e informes de riesgo periódicos, y señala que retrasará el desarrollo si considera que existe un riesgo significativo de catástrofe.

Los cambios de política de Anthropic y OpenAI se producen mientras las empresas buscan fortalecer su posición comercial.

A principios de este mes, Anthropic anunció que recaudó $30.000 millones a una valoración de aproximadamente $380.000 millones. Al mismo tiempo, OpenAI está finalizando una ronda de financiación respaldada por Amazon, Microsoft y Nvidia que podría alcanzar los $100.000 millones.

Anthropic y OpenAI, junto con Google y xAI, han obtenido lucrativos contratos gubernamentales con el Departamento de Defensa de EE.UU. Sin embargo, para Anthropic el contrato parece estar en duda, ya que el Pentágono evalúa si romper vínculos con la firma de IA por quejas de acceso.

A medida que el capital fluye hacia el sector y la competencia geopolítica se intensifica, Hamza Chaudhry, líder de IA y Seguridad Nacional en el Future of Life Institute, señaló que el cambio de política refleja dinámicas políticas cambiantes más que un intento de conseguir negocios con el Pentágono.

"Si ese fuera el caso, simplemente habrían cedido ante lo que dijo el Pentágono hace una semana", dijo Chaudhry a Decrypt. "Dario [Amodei] no se habría presentado a reunirse".

En cambio, Chaudhry afirmó que la reescritura refleja un punto de inflexión en cómo las empresas de IA hablan sobre el riesgo a medida que aumentan la presión política y las apuestas competitivas.

"Anthropic está diciendo ahora: 'Miren, no podemos seguir hablando de seguridad, no podemos pausar incondicionalmente, y vamos a abogar por una regulación mucho más liviana'", señaló.

Get crypto news straight to your inbox--

sign up for the Decrypt Daily below. (It’s free).

Noticias recomendados