La Casa Blanca llevó a cabo una reunión "productiva y constructiva" con Dario Amodei, CEO de la firma de inteligencia artificial Anthropic, el viernes 18 de abril, pocos días después de que la compañía presentara su avanzada herramienta de ciberseguridad, Claude Mythos. Este encuentro marca un giro notable para una administración que anteriormente había fustigado a la compañía como una entidad "de izquierda radical, woke". La firma está actualmente demandando al Departamento de Defensa de EE. UU. por una designación de "riesgo en la cadena de suministro".
La reunión del viernes, a la que asistieron el Secretario del Tesoro Scott Bessent y la Jefa de Gabinete de la Casa Blanca Susie Wiles, tuvo lugar apenas una semana después de que Anthropic presentara su vista previa de Claude Mythos. Esta nueva herramienta de IA, según Anthropic, posee capacidades que le permiten superar el rendimiento humano en ciertas tareas de hacking y ciberseguridad. El comunicado de la Casa Blanca señaló que las discusiones se centraron en "oportunidades de colaboración, así como enfoques y protocolos compartidos para abordar los desafíos asociados con la expansión de esta tecnología", añadiendo que "exploraron el equilibrio entre el avance de la innovación y la garantía de la seguridad". Esto representa un cambio retórico significativo.
Anthropic había lanzado Claude Mythos a un número limitado de socios de acceso anticipado. Solo unas pocas docenas de empresas han obtenido acceso hasta ahora. Investigadores que han evaluado la herramienta la describen como "sorprendentemente capaz en tareas de seguridad informática". La tecnología puede identificar vulnerabilidades en bases de código heredadas, algunas con décadas de antigüedad, y desarrollar autónomamente métodos para explotar esas debilidades.
Esta capacidad tiene implicaciones considerables tanto para operaciones cibernéticas ofensivas como defensivas, un ámbito de creciente preocupación para la seguridad nacional. Este compromiso de alto nivel sigue a meses de tensión entre la firma de IA y las agencias federales.
En marzo, Anthropic inició acciones legales contra el Departamento de Defensa y otros organismos federales.
La demanda impugnó una etiqueta específica: "riesgo en la cadena de suministro". Esta designación, aplicada públicamente a Anthropic, fue la primera vez que una empresa estadounidense recibía tal clasificación, lo que indicaba que su tecnología se consideraba insegura para el uso gubernamental. Los números en el manifiesto de envío cuentan la verdadera historia del riesgo cuando se trata de hardware, pero para el software, la procedencia del código y los protocolos de seguridad dictan su fiabilidad. Los documentos judiciales de Anthropic argumentaron que la designación constituía una represalia.
La firma afirmó que el Secretario de Defensa Pete Hegseth impuso la etiqueta después de que Amodei se negara a conceder al Pentagon acceso irrestricto a las herramientas de IA de Anthropic. La negativa de Amodei se debió a la preocupación de que la tecnología pudiera ser mal utilizada para la vigilancia masiva doméstica o el desarrollo de sistemas de armas totalmente autónomos. Esta reticencia a ceder el control subraya una creciente tensión entre los innovadores tecnológicos y las demandas de acceso del gobierno.
A pesar de la etiqueta de "riesgo en la cadena de suministro", las herramientas de Anthropic han permanecido en uso activo en todas las agencias gubernamentales que las adoptaron antes de la designación. Esta situación paradójica resalta la dependencia del gobierno de las capacidades avanzadas de IA, incluso de empresas que oficialmente considera un riesgo de seguridad. Un tribunal federal en California se puso en gran medida del lado de Anthropic en cuanto a los méritos de su argumento.
Sin embargo, un tribunal federal de apelaciones denegó la solicitud de la firma de bloquear temporalmente la designación. La batalla legal continúa. Antes de la reunión del viernes en la Casa Blanca, la administración había expresado poco sentimiento positivo hacia Anthropic.
El presidente Trump, por ejemplo, había ordenado previamente a todas las agencias gubernamentales que dejaran de usar los productos de Anthropic. En las redes sociales, caracterizó a la compañía como dirigida por "locos de izquierda" que intentaban "presionar" al estamento de defensa. "¡No lo necesitamos, no lo queremos y no volveremos a hacer negocios con ellos!", escribió Trump, delineando claramente su posición. Esta condena pública contrastaba fuertemente con el reciente lenguaje "productivo y constructivo" de la Casa Blanca.
El Presidente, al llegar a un evento en Phoenix, Arizona, el viernes, declaró que no tenía "ni idea" de la visita del CEO de Anthropic a la Casa Blanca cuando los reporteros le preguntaron. Esto sugiere una falta de participación directa en la reunión específica o un distanciamiento estratégico de una situación que evoluciona rápidamente. El cambio de tono por parte del personal de la Casa Blanca, sin embargo, indica una reevaluación pragmática de la importancia de Anthropic.
Este incidente proporciona una vívida ilustración de cuán profundamente entrelazada se ha vuelto la seguridad nacional con los avances tecnológicos del sector privado. La etiqueta de "riesgo en la cadena de suministro", típicamente asociada con componentes de hardware de adversarios extranjeros, ahora se extiende al software de empresas nacionales. Esto amplía el alcance de lo que los gobiernos consideran infraestructura crítica.
Siga la cadena de suministro y rápidamente se dará cuenta de que los componentes digitales son a menudo más críticos que los físicos. Las implicaciones para otros desarrolladores de IA son significativas. La política comercial es política exterior por otros medios, y en la era digital, la política tecnológica con frecuencia sirve como política de seguridad nacional.
La postura inicial de línea dura del gobierno contra Anthropic, seguida de una reunión conciliadora, muestra el difícil equilibrio entre fomentar la innovación y afirmar el control sobre tecnologías potencialmente de doble uso. Las empresas que desarrollan IA avanzada se enfrentan a una inmensa presión tanto de las fuerzas del mercado como de los actores estatales. Sus decisiones sobre el acceso a los datos y las directrices éticas tienen un peso geopolítico.
La importancia más amplia se extiende al futuro de la infraestructura de ciberseguridad. Si una potente herramienta de IA como Claude Mythos puede encontrar y explotar vulnerabilidades de forma autónoma, su despliegue controlado se convierte en una cuestión de prioridad nacional. Los gobiernos necesitan estas herramientas para proteger sus propios sistemas.
También temen su mal uso por parte de adversarios. La tensión sobre el "acceso sin restricciones" frente a las salvaguardias éticas definirá cómo se integran estas tecnologías en la defensa nacional. Esto impacta directamente la seguridad de los datos públicos y los servicios críticos para los ciudadanos comunes.
Para los consumidores, el resultado de tales disputas puede parecer distante, pero es directamente relevante. La seguridad de los sistemas gubernamentales, desde los registros fiscales hasta las redes militares, depende de las herramientas empleadas para protegerlos. Una infraestructura digital robusta y segura, respaldada por IA de vanguardia, ayuda a salvaguardar la información personal y la estabilidad nacional.
Por el contrario, las vulnerabilidades pueden provocar filtraciones masivas de datos o interrupciones de servicios esenciales. La fiabilidad de estas cadenas de suministro digitales sustenta la estabilidad económica. - La Casa Blanca se reunió con el CEO de Anthropic a pesar de la condena previa y una demanda en curso. - La nueva herramienta de IA Claude Mythos de Anthropic ofrece capacidades avanzadas de ciberseguridad y hacking. - La firma está demandando al Departamento de Defensa por una designación de "riesgo en la cadena de suministro", que afirma fue una represalia. El fallo final del tribunal federal de apelaciones sobre la designación de "riesgo en la cadena de suministro" de Anthropic será un desarrollo crítico a observar.
Su decisión podría sentar un precedente sobre cómo el gobierno de EE. UU. interactúa con otras firmas nacionales de IA que desarrollan tecnologías de doble uso. Además, los observadores monitorearán cómo el recién expresado interés de la Casa Blanca en la colaboración se traduce en cambios de política concretos o acuerdos de adquisición. La continua evolución y despliegue de Claude Mythos, y otros sistemas de IA avanzados similares, también moldearán las futuras estrategias de ciberseguridad tanto para el sector público como para el privado a nivel mundial.
Puntos Clave
— - La Casa Blanca se reunió con el CEO de Anthropic a pesar de la condena previa y una demanda en curso.
— - La nueva herramienta de IA Claude Mythos de Anthropic ofrece capacidades avanzadas de ciberseguridad y hacking.
— - La firma está demandando al Departamento de Defensa por una designación de "riesgo en la cadena de suministro", que afirma fue una represalia.
— - Las agencias gubernamentales continúan usando las herramientas de Anthropic a pesar de la designación oficial de seguridad.
Fuente: BBC News
