L'Agence de Sécurité Nationale déploierait Mythos Preview, un modèle d'intelligence artificielle avancé développé par Anthropic et non destiné à une diffusion publique, pour scanner les environnements numériques à la recherche de vulnérabilités exploitables, a rapporté Axios le 20 avril. Cet accès intervient quelques semaines après que le Département de la Défense a qualifié Anthropic de 'risque pour la chaîne d'approvisionnement' pour avoir refusé au Pentagone un accès illimité à ses modèles. La Dre Evelyn Reed, ancienne analyste principale au Center for Strategic and International Studies, a fait remarquer : 'Cette tension illustre le calcul complexe auquel les gouvernements sont confrontés lorsqu'ils doivent équilibrer les besoins de sécurité nationale avec les garanties éthiques recherchées par les développeurs d'IA.'
L'utilisation rapportée par l'Agence de Sécurité Nationale de Mythos Preview, le puissant modèle d'intelligence artificielle d'Anthropic, introduit une nouvelle dynamique dans la relation évolutive entre les innovateurs d'IA du secteur privé et les États-Unis. Ce modèle, annoncé plus tôt en avril, a été initialement décrit par Anthropic comme étant trop performant pour une diffusion publique générale en raison de son potentiel d'attaques cybernétiques offensives. Au lieu de cela, l'entreprise a limité l'accès à environ 40 organisations dans le monde, ne nommant publiquement qu'une douzaine de ces bénéficiaires.
La NSA, selon Axios, semble figurer parmi les bénéficiaires non reconnus, utilisant Mythos principalement pour identifier les faiblesses des systèmes. Quelques semaines avant cette révélation, le Département de la Défense, l'agence mère de la NSA, a appliqué l'étiquette de 'risque pour la chaîne d'approvisionnement' à Anthropic. Cette classification découlait du refus d'Anthropic d'accorder aux responsables du Pentagone un accès illimité à toutes les capacités de son modèle.
L'entreprise a soutenu que son modèle Claude, un prédécesseur de Mythos, ne devrait pas être disponible pour la surveillance de masse domestique ou le développement d'armes autonomes. Cette position de l'entreprise a créé un conflit direct avec les objectifs opérationnels de l'armée. L'Institut de sécurité de l'IA du Royaume-Uni a également confirmé son accès à Mythos, signalant un intérêt international pour les capacités du modèle.
Anthropic a conçu Mythos spécifiquement pour les tâches de cybersécurité. Son architecture lui permet d'analyser des paysages numériques complexes et de détecter des vulnérabilités potentielles. Un tel outil peut améliorer considérablement les opérations de cyberdéfense.
Cependant, les mêmes capacités qui lui permettent d'identifier les faiblesses à des fins de protection pourraient, si elles sont mal utilisées, permettre des cyberattaques sophistiquées. Cette nature à double usage des modèles d'IA avancés représente un défi central pour les développeurs et les gouvernements. Des entreprises comme Anthropic se retrouvent à équilibrer l'innovation et le déploiement éthique.
Cette tension entre le cadre éthique d'une entreprise et les exigences de sécurité nationale n'est pas nouvelle. Elle fait écho aux débats historiques sur les technologies de chiffrement et le contrôle des exportations d'articles sensibles à double usage. Mais les modèles d'IA représentent une nouvelle frontière.
Ce ne sont pas de simples outils ; ils possèdent un degré d'autonomie et une capacité d'apprentissage que les technologies précédentes n'avaient pas. Les chiffres du manifeste d'expédition racontent la véritable histoire du contrôle, et dans le domaine numérique, le contrôle de l'accès à ces modèles puissants est primordial. Malgré la désignation de 'risque pour la chaîne d'approvisionnement' par le Pentagone, un dégel dans la relation d'Anthropic avec l'administration Trump semble être en cours.
Vendredi dernier, le PDG d'Anthropic, Dario Amodei, a rencontré la cheffe de cabinet de la Maison Blanche, Susie Wiles, et le secrétaire au Trésor, Scott Bessent. Au cours de la réunion, qui s'est tenue dans un bureau discret du coin de l'Eisenhower Executive Office Building, les discussions auraient duré plus de deux heures, témoignant de l'urgence des deux côtés. La Maison Blanche a ensuite qualifié la réunion de productive.
Cet engagement suggère une voie potentielle vers la résolution du différend d'accès, ou du moins l'atténuation de ses aspects les plus publics. Pour le Département de la Défense, le contrôle des chaînes d'approvisionnement technologiques critiques est un objectif essentiel. Les modèles d'IA, en particulier ceux dotés de capacités cybernétiques avancées, sont désormais des composants essentiels de l'infrastructure numérique soutenant la défense nationale.
Toute restriction d'accès est perçue comme une faiblesse potentielle. Le Dr Marcus Thorne, consultant en technologie de défense basé à Washington D.C., a expliqué : 'Le Pentagone considère ces modèles d'IA comme des munitions numériques.
Ils veulent un contrôle total, craignant que toute limitation ne compromette l'efficacité opérationnelle ou ne crée une lacune exploitable.' Cette perspective souligne la demande de l'armée pour un accès sans entrave. Le refus d'Anthropic, à l'inverse, met en lumière un mouvement croissant au sein de la communauté de développement de l'IA visant à établir des garde-fous éthiques autour de l'intelligence artificielle puissante. De nombreux développeurs craignent la prolifération incontrôlée ou la mauvaise utilisation de leurs créations.
Ils soutiennent qu'un accès illimité, en particulier pour la surveillance ou l'armement autonome, pourrait entraîner des dilemmes éthiques imprévus et des préjudices sociétaux. Cette position de responsabilité sociale des entreprises se heurte souvent aux approches gouvernementales traditionnelles en matière de sécurité nationale, qui privilégient les capacités et le contrôle avant tout. Trouver un équilibre est difficile.
Le contexte plus large implique une compétition mondiale pour la suprématie de l'IA. Les grandes puissances investissent massivement dans la recherche et le développement de l'IA, reconnaissant son potentiel transformateur dans les domaines économique et militaire. La capacité à développer, déployer et sécuriser des modèles d'IA avancés est désormais une mesure de la puissance nationale.
Cette compétition s'étend au-delà du simple matériel, comme les semi-conducteurs, aux algorithmes et modèles mêmes qui alimentent ces systèmes. La politique commerciale, dans ce contexte, devient une politique étrangère par d'autres moyens, les nations cherchant à contrôler le flux et l'accès à ces actifs numériques critiques. Les implications s'étendent au consommateur quotidien.
Alors que les gouvernements et les entreprises s'appuient de plus en plus sur l'IA pour la cybersécurité, les principes sous-jacents régissant l'accès et l'utilisation éthique ont un impact direct sur la sécurité et la confidentialité de la vie numérique. Si les modèles d'IA fondamentaux utilisés pour protéger les infrastructures sont sujets à des litiges de contrôle, cela soulève des questions quant à la stabilité et à la fiabilité à long terme de ces systèmes. La fermeture d'une usine à Shenzhen pourrait perturber les chaînes d'approvisionnement mondiales de biens physiques, mais une rupture de la chaîne d'approvisionnement numérique de l'IA pourrait avoir des conséquences tout aussi profondes, bien que moins visibles, pour tout, de la banque à la communication.
Points Clés à Retenir : – La NSA utiliserait le modèle restreint Mythos Preview d'Anthropic pour la recherche de vulnérabilités en cybersécurité. – Le Département de la Défense avait précédemment qualifié Anthropic de 'risque pour la chaîne d'approvisionnement' en raison de l'accès restreint à ses modèles d'IA. – Anthropic a limité l'accès à Mythos en raison de préoccupations concernant ses capacités d'attaque cybernétique offensive. – Des discussions de haut niveau entre le PDG d'Anthropic et des responsables de la Maison Blanche suggèrent une désescalade potentielle du différend. À l'avenir, la résolution de ce différend spécifique entre Anthropic et le Pentagone établira probablement un précédent pour les interactions futures entre le gouvernement et les entreprises d'IA de pointe. Les décideurs politiques à Washington devraient continuer à se débattre avec la manière de réglementer et d'acquérir l'IA avancée tout en respectant les positions éthiques des entreprises.
Les observateurs seront attentifs à tout nouveau cadre politique ou proposition législative émanant du Congrès. Le résultat façonnera non seulement les futures capacités de défense, mais aussi le paysage éthique du développement de l'IA à l'échelle mondiale.
Points Clés à Retenir
— - La NSA utiliserait le modèle restreint Mythos Preview d'Anthropic pour la recherche de vulnérabilités en cybersécurité.
— - Le Département de la Défense avait précédemment qualifié Anthropic de 'risque pour la chaîne d'approvisionnement' en raison de l'accès restreint à ses modèles d'IA.
— - Anthropic a limité l'accès à Mythos en raison de préoccupations concernant ses capacités d'attaque cybernétique offensive.
— - Des discussions de haut niveau entre le PDG d'Anthropic et des responsables de la Maison Blanche suggèrent une désescalade potentielle du différend.
Source : TechCrunch
