Anteriormente, Anthropic se posicionaba como uno de los laboratorios de IA más orientados a la seguridad del mercado, pero ahora su dirección ha dado marcha atrás en un compromiso central. En 2023, la compañía presentó su Responsible Scaling Policy (RSP), un conjunto voluntario de normas destinadas a reducir los riesgos catastróficos asociados a los sistemas avanzados de IA. El documento original implicaba que el desarrollador pausaría el avance de la IA si consideraba que la tecnología era potencialmente peligrosa.
«Decidimos que no ayudaríamos a nadie si simplemente dejábamos de entrenar modelos de IA. Dado el rápido progreso de la industria, nos pareció poco razonable asumir compromisos unilaterales mientras los competidores avanzan», afirmó Jared Kaplan, director científico de Anthropic.
La tercera versión de la RSP establece que Anthropic continuará mejorando la IA si considera que no tiene una ventaja significativa frente a sus competidores. En una entrada de blog, la startup señaló que el entorno político se ha desplazado hacia la priorización de la competitividad y el crecimiento económico, y que los debates sobre la seguridad de la IA no han recibido un apoyo sustancial a nivel federal.
La política actualizada promete una mayor transparencia, incluida la publicación más detallada de los resultados de las pruebas de los modelos. Anthropic afirma que se mantendrá al nivel de sus competidores en los controles de los sistemas y que solo ralentizaría el desarrollo si se convirtiera en el líder indiscutible de la carrera y, al mismo tiempo, detectara un riesgo catastrófico significativo. Cuando Anthropic presentó la RSP en 2023, esperaba que sus competidores siguieran su ejemplo, pero ninguno asumió un compromiso igualmente explícito de pausar el desarrollo de la IA.
Anthropic bajo presión del Pentágono
Según los informes, Anthropic y el Departamento de Defensa de Estados Unidos han chocado por los planes militares de utilizar la IA para la vigilancia interna y el desarrollo de armas autónomas. La startup se opone a este enfoque, pero funcionarios del Pentágono afirmaron que pretenden usar los LLM «para todos los escenarios legales» sin restricciones y sugirieron que el contrato podría rescindirse.
El CEO de la startup, Dario Amodei, se reunió con el secretario de Defensa, Pete Hegseth, para discutir la disputa. El Pentágono habría emitido un ultimátum: la empresa debe aceptar las condiciones del gobierno antes del 27 de febrero.
Si Anthropic se niega, el gobierno podría calificar a la compañía como una amenaza para las cadenas de suministro, lo que pondría en riesgo su negocio con otros contratistas del gobierno de EE. UU. Otra opción sería invocar la Defense Production Act, lo que permitiría al Pentágono utilizar la tecnología de la startup de forma obligatoria.
«Este escenario es inédito y casi con total seguridad desencadenaría una ola de litigios si la administración adopta medidas adversas contra Anthropic», afirmó Franklin Turner, abogado especializado en contratos gubernamentales en McCarter & English.
En su respuesta, representantes de la empresa señalaron que las partes «continúan dialogando de buena fe».
Anthropic se mantiene firme
Reuters informó que Anthropic no tiene intención de suavizar sus restricciones sobre el uso militar. La postura de la startup fue respaldada por el cofundador de Ethereum, Vitalik Buterin, quien declaró: «Si no retroceden y aceptan las consecuencias con honor, mejorará significativamente mi opinión sobre Anthropic».
En febrero, se reveló que el modelo Claude fue utilizado en una operación para capturar al presidente de Venezuela, Nicolás Maduro. Reuters informó que, durante la reunión con Hegseth, el CEO de Anthropic no expresó preocupación por el uso de los productos de la empresa en esa iniciativa.
The Economist sostiene que la amenaza inusualmente grave del Pentágono sugiere una negativa a renunciar a Claude para fines de defensa, y señala que la tecnología de la startup podría ser difícil de reemplazar en determinadas tareas militares.
ES
EN