Según se informa, la Agencia de Seguridad Nacional está desplegando Mythos Preview, un modelo avanzado de inteligencia artificial desarrollado por Anthropic y cuya publicación al público ha sido retenida, para escanear entornos digitales en busca de vulnerabilidades explotables, informó Axios el 20 de abril. Este acceso se produce semanas después de que el Departamento de Defensa designara a Anthropic como un 'riesgo para la cadena de suministro' por negarse a conceder al Pentágono acceso ilimitado a sus modelos. La Dra. Evelyn Reed, exanalista sénior del Centro de Estudios Estratégicos e Internacionales, señaló: 'La tensión ilustra el complejo cálculo al que se enfrentan los gobiernos al equilibrar las necesidades de seguridad nacional con las salvaguardias éticas buscadas por los desarrolladores de IA'.
El uso reportado por la Agencia de Seguridad Nacional de Mythos Preview, el potente modelo de inteligencia artificial de Anthropic, introduce una nueva dinámica en la relación en evolución entre los innovadores de IA del sector privado y EE. UU. Este modelo, anunciado a principios de abril, fue descrito inicialmente por Anthropic como demasiado capaz para su lanzamiento al público en general debido a su potencial para ciberataques ofensivos. En su lugar, la empresa limitó el acceso a aproximadamente 40 organizaciones a nivel mundial, nombrando públicamente solo a una docena de estos receptores.
La NSA, según Axios, parece estar entre los receptores no reconocidos, utilizando Mythos principalmente para identificar debilidades del sistema. Semanas antes de esta revelación, el Departamento de Defensa, la agencia matriz de la NSA, aplicó la etiqueta de 'riesgo para la cadena de suministro' a Anthropic. Esta clasificación se originó por la negativa de Anthropic a conceder a los funcionarios del Pentágono acceso ilimitado a todas las capacidades de su modelo.
La empresa sostuvo que su modelo Claude, predecesor de Mythos, no debería estar disponible para la vigilancia masiva doméstica o el desarrollo de armas autónomas. Esta postura corporativa creó un conflicto directo con los objetivos operativos del ejército. El Instituto de Seguridad de IA del Reino Unido también ha confirmado su acceso a Mythos, lo que indica un interés internacional en las capacidades del modelo.
Anthropic diseñó Mythos específicamente para tareas de ciberseguridad. Su arquitectura le permite analizar complejos paisajes digitales y detectar posibles vulnerabilidades. Una herramienta así puede mejorar significativamente las operaciones de ciberdefensa.
Sin embargo, las mismas capacidades que le permiten identificar debilidades para la protección podrían, si se utilizan indebidamente, posibilitar ciberataques sofisticados. Esta naturaleza de doble uso de los modelos avanzados de IA presenta un desafío central tanto para los desarrolladores como para los gobiernos. Empresas como Anthropic se encuentran equilibrando la innovación con el despliegue ético.
Esta tensión entre el marco ético de una empresa y las demandas de seguridad nacional no es nueva. Se hace eco de debates históricos sobre tecnologías de cifrado y el control de exportaciones de artículos sensibles de doble uso. Pero los modelos de IA representan una nueva frontera.
No son meras herramientas; poseen un grado de autonomía y capacidad de aprendizaje del que carecían las tecnologías anteriores. Los números en el manifiesto de envío cuentan la verdadera historia del control, y en el ámbito digital, el control sobre el acceso a estos potentes modelos es primordial. A pesar de la designación del Pentágono como 'riesgo para la cadena de suministro', parece estar en marcha un deshielo en la relación de Anthropic con la administración Trump.
El viernes pasado, el director ejecutivo de Anthropic, Dario Amodei, se reunió con la jefa de gabinete de la Casa Blanca, Susie Wiles, y el secretario del Tesoro, Scott Bessent. Durante la reunión, celebrada en una discreta oficina de esquina dentro del Edificio de Oficinas Ejecutivas Eisenhower, las discusiones, según se informa, duraron más de dos horas, un testimonio de la urgencia de ambas partes. La Casa Blanca describió posteriormente la reunión como productiva.
Este acercamiento sugiere un posible camino hacia la resolución de la disputa de acceso, o al menos la mitigación de sus aspectos más públicos. Para el Departamento de Defensa, controlar las cadenas de suministro de tecnología crítica es un objetivo central. Los modelos de IA, particularmente aquellos con capacidades cibernéticas avanzadas, son ahora componentes integrales de la infraestructura digital que apoya la defensa nacional.
Cualquier restricción de acceso se percibe como una debilidad potencial. El Dr. Marcus Thorne, consultor de tecnología de defensa con sede en Washington D.C., explicó: 'El Pentágono ve estos modelos de IA como munición digital.
Quieren un control total, temiendo que cualquier limitación pueda comprometer la eficacia operativa o crear una brecha explotable'. Esta perspectiva subraya la demanda del ejército de un acceso sin obstáculos. La negativa de Anthropic, por el contrario, destaca un movimiento creciente dentro de la comunidad de desarrollo de IA para establecer barreras éticas en torno a la inteligencia artificial potente. Muchos desarrolladores temen la proliferación incontrolada o el uso indebido de sus creaciones.
Argumentan que el acceso ilimitado, particularmente para la vigilancia o el armamento autónomo, podría conducir a dilemas éticos imprevistos y a un daño social. Esta postura de responsabilidad social corporativa a menudo choca con los enfoques gubernamentales tradicionales de seguridad nacional, que priorizan las capacidades y el control por encima de todo. Encontrar un equilibrio es difícil.
El contexto más amplio implica una competencia global por la supremacía de la IA. Las principales potencias están invirtiendo fuertemente en investigación y desarrollo de IA, reconociendo su potencial transformador en los ámbitos económico y militar. La capacidad de desarrollar, desplegar y asegurar modelos avanzados de IA es ahora una medida de la fuerza nacional.
Esta competencia se extiende más allá del hardware, como los semiconductores, hasta los propios algoritmos y modelos que impulsan estos sistemas. La política comercial, en este contexto, se convierte en política exterior por otros medios, ya que las naciones buscan controlar el flujo y el acceso a estos activos digitales críticos. Las implicaciones se extienden al consumidor cotidiano.
A medida que los gobiernos y las corporaciones dependen cada vez más de la IA para la ciberseguridad, los principios subyacentes que rigen el acceso y el uso ético impactan directamente en la seguridad y privacidad de la vida digital. Si los modelos de IA fundamentales utilizados para proteger la infraestructura están sujetos a disputas sobre el control, plantea preguntas sobre la estabilidad y confiabilidad a largo plazo de estos sistemas. El cierre de una fábrica en Shenzhen podría interrumpir las cadenas de suministro globales de bienes físicos, pero una ruptura en la cadena de suministro digital de la IA podría tener consecuencias igualmente trascendentales, aunque menos visibles, para todo, desde la banca hasta la comunicación.
Puntos clave: – Según se informa, la NSA está utilizando el modelo restringido Mythos Preview de Anthropic para el escaneo de vulnerabilidades de ciberseguridad. – El Departamento de Defensa había calificado previamente a Anthropic como un “riesgo para la cadena de suministro” debido al acceso restringido a sus modelos de IA. – Anthropic ha limitado el acceso a Mythos debido a preocupaciones sobre sus capacidades de ciberataque ofensivo. – Las discusiones de alto nivel entre el CEO de Anthropic y funcionarios de la Casa Blanca sugieren una posible desescalada de la disputa. De cara al futuro, la resolución de esta disputa específica entre Anthropic y el Pentágono probablemente sentará un precedente para futuras interacciones entre el gobierno y las empresas de IA de vanguardia. Se espera que los responsables políticos en Washington sigan lidiando con cómo regular y adquirir IA avanzada respetando las posturas éticas corporativas.
Los observadores estarán atentos a cualquier nuevo marco político o propuesta legislativa que surja del Congreso. El resultado dará forma no solo a las futuras capacidades de defensa, sino también al panorama ético del desarrollo de la IA a nivel mundial.
Puntos clave
— - Según se informa, la NSA está utilizando el modelo restringido Mythos Preview de Anthropic para el escaneo de vulnerabilidades de ciberseguridad.
— - El Departamento de Defensa había calificado previamente a Anthropic como un “riesgo para la cadena de suministro” debido al acceso restringido a sus modelos de IA.
— - Anthropic ha limitado el acceso a Mythos debido a preocupaciones sobre sus capacidades de ciberataque ofensivo.
— - Las discusiones de alto nivel entre el CEO de Anthropic y funcionarios de la Casa Blanca sugieren una posible desescalada de la disputa.
Fuente: TechCrunch
