La Maison Blanche a tenu une réunion « productive et constructive » avec Dario Amodei, PDG de la société d'intelligence artificielle Anthropic, le vendredi 18 avril, quelques jours seulement après que l'entreprise a dévoilé son outil avancé de cybersécurité, Claude Mythos. Cet engagement marque un virage notable pour une administration qui avait auparavant fustigé l'entreprise comme une entité « d'extrême gauche, woke ». L'entreprise poursuit actuellement le département américain de la Défense concernant une désignation de « risque pour la chaîne d'approvisionnement ».
La réunion de vendredi, à laquelle ont participé le secrétaire au Trésor Scott Bessent et la cheffe de cabinet de la Maison Blanche Susie Wiles, a eu lieu à peine une semaine après qu'Anthropic a présenté son aperçu de Claude Mythos. Ce nouvel outil d'IA, selon Anthropic, possède des capacités lui permettant de surpasser les performances humaines dans certaines tâches de piratage et de cybersécurité. La déclaration de la Maison Blanche a fait état de discussions axées sur les « opportunités de collaboration, ainsi que sur des approches et protocoles partagés pour relever les défis liés à la mise à l'échelle de cette technologie », ajoutant qu'ils ont « exploré l'équilibre entre l'avancement de l'innovation et la garantie de la sécurité ». Cela représente un changement rhétorique significatif.
Anthropic avait mis Claude Mythos à la disposition d'un nombre limité de partenaires en accès anticipé. Seules quelques dizaines d'entreprises y ont eu accès jusqu'à présent. Les chercheurs qui ont évalué l'outil le décrivent comme « remarquablement performant pour les tâches de sécurité informatique ». La technologie peut identifier les vulnérabilités dans des bases de code héritées, certaines vieilles de plusieurs décennies, et développer de manière autonome des méthodes pour exploiter ces faiblesses.
Cette capacité a des implications considérables pour les opérations cybernétiques offensives et défensives, un domaine de préoccupation croissante pour la sécurité nationale. Cet engagement de haut niveau fait suite à des mois de tension entre la firme d'IA et les agences fédérales. En mars, Anthropic a intenté une action en justice contre le département de la Défense et d'autres organismes fédéraux.
La poursuite contestait une étiquette spécifique : « risque pour la chaîne d'approvisionnement ». Cette désignation, appliquée publiquement à Anthropic, était la première fois qu'une entreprise américaine recevait une telle classification, signalant que sa technologie était jugée non sécurisée pour une utilisation gouvernementale. Les chiffres sur le manifeste d'expédition révèlent la véritable histoire du risque en matière de matériel, mais pour les logiciels, la provenance du code et les protocoles de sécurité dictent sa fiabilité. Les documents judiciaires d'Anthropic ont soutenu que cette désignation constituait des représailles.
L'entreprise a affirmé que le secrétaire à la Défense Pete Hegseth avait imposé cette étiquette après qu'Amodei a refusé d'accorder au Pentagone un accès illimité aux outils d'IA d'Anthropic. Le refus d'Amodei découlait de la crainte que la technologie ne soit utilisée à mauvais escient pour la surveillance de masse domestique ou le développement de systèmes d'armes entièrement autonomes. Cette réticence à céder le contrôle souligne une tension croissante entre les innovateurs technologiques et les exigences gouvernementales en matière d'accès.
Malgré l'étiquette de « risque pour la chaîne d'approvisionnement », les outils d'Anthropic sont restés activement utilisés par toutes les agences gouvernementales qui les avaient adoptés avant cette désignation. Cette situation paradoxale souligne la dépendance du gouvernement à l'égard des capacités d'IA avancées, même de la part d'entreprises qu'il considère officiellement comme un risque pour la sécurité. Un tribunal fédéral en Californie a largement donné raison à Anthropic quant au fond de son argument.
Cependant, une cour d'appel fédérale a rejeté la demande de l'entreprise de bloquer temporairement la désignation. La bataille juridique se poursuit. Avant la réunion de vendredi à la Maison Blanche, l'administration avait exprimé peu de sentiments positifs envers Anthropic.
Le président Trump, par exemple, avait auparavant ordonné à toutes les agences gouvernementales de cesser d'utiliser les produits d'Anthropic. Sur les réseaux sociaux, il avait qualifié l'entreprise de dirigée par des « cinglés de gauche » tentant de « forcer la main » à l'establishment de la défense. « Nous n'en avons pas besoin, nous n'en voulons pas, et nous ne ferons plus affaire avec eux ! » a écrit Trump, exposant clairement sa position. Cette condamnation publique contrastait fortement avec le langage récent « productif et constructif » de la Maison Blanche.
Le président, arrivant pour un événement à Phoenix, Arizona, vendredi, a déclaré qu'il n'avait « aucune idée » de la visite du PDG d'Anthropic à la Maison Blanche lorsque les journalistes l'ont interrogé. Cela suggère soit un manque d'implication directe dans la réunion spécifique, soit une prise de distance stratégique face à une situation en évolution rapide. Le changement de ton du personnel de la Maison Blanche indique cependant une réévaluation pragmatique de l'importance d'Anthropic.
Cet incident illustre de manière frappante à quel point la sécurité nationale est devenue profondément liée aux avancées technologiques du secteur privé. L'étiquette de « risque pour la chaîne d'approvisionnement », généralement associée aux composants matériels provenant d'adversaires étrangers, s'étend désormais aux logiciels des entreprises nationales. Cela élargit le champ de ce que les gouvernements considèrent comme une infrastructure critique.
Suivez la chaîne d'approvisionnement, et vous réaliserez rapidement que les composants numériques sont souvent plus critiques que les physiques. Les implications pour les autres développeurs d'IA sont significatives. La politique commerciale est une politique étrangère par d'autres moyens, et à l'ère numérique, la politique technologique sert fréquemment de politique de sécurité nationale.
La position initialement intransigeante du gouvernement envers Anthropic, suivie d'une réunion conciliatrice, illustre l'équilibre difficile entre l'encouragement de l'innovation et l'affirmation du contrôle sur les technologies potentiellement à double usage. Les entreprises développant des IA avancées sont soumises à une pression immense de la part des forces du marché et des acteurs étatiques. Leurs décisions concernant l'accès aux données et les directives éthiques ont un poids géopolitique.
La portée plus large s'étend à l'avenir de l'infrastructure de cybersécurité. Si un outil d'IA puissant comme Claude Mythos peut trouver et exploiter des vulnérabilités de manière autonome, son déploiement contrôlé devient une question de priorité nationale. Les gouvernements ont besoin de ces outils pour protéger leurs propres systèmes.
Ils craignent également leur utilisation abusive par des adversaires. La tension entre l'« accès illimité » et les garanties éthiques définira la manière dont ces technologies seront intégrées à la défense nationale. Cela a un impact direct sur la sécurité des données publiques et des services critiques pour les citoyens ordinaires.
Pour les consommateurs, l'issue de tels litiges peut sembler lointaine, pourtant elle est directement pertinente. La sécurité des systèmes gouvernementaux, des dossiers fiscaux aux réseaux militaires, dépend des outils employés pour les protéger. Une infrastructure numérique robuste et sécurisée, soutenue par une IA de pointe, contribue à protéger les informations personnelles et la stabilité nationale.
Inversement, les vulnérabilités peuvent entraîner des violations de données généralisées ou des perturbations de services essentiels. La fiabilité de ces chaînes d'approvisionnement numériques est le fondement de la stabilité économique. - La Maison Blanche a rencontré le PDG d'Anthropic malgré une condamnation antérieure et un procès en cours. - Le nouvel outil d'IA Claude Mythos d'Anthropic offre des capacités avancées de cybersécurité et de piratage. - L'entreprise poursuit le département de la Défense concernant une désignation de « risque pour la chaîne d'approvisionnement », qu'elle prétend être des représailles. La décision finale de la cour d'appel fédérale concernant la désignation de « risque pour la chaîne d'approvisionnement » d'Anthropic sera un développement crucial à surveiller.
Sa décision pourrait créer un précédent quant à la manière dont le gouvernement américain interagit avec d'autres entreprises d'IA nationales développant des technologies à double usage. En outre, les observateurs suivront la manière dont l'intérêt nouvellement exprimé par la Maison Blanche pour la collaboration se traduira par des changements de politique concrets ou des accords d'approvisionnement. L'évolution et le déploiement continus de Claude Mythos, et d'autres systèmes d'IA avancés similaires, façonneront également les futures stratégies de cybersécurité pour les secteurs public et privé à l'échelle mondiale.
Points clés à retenir
— - La Maison Blanche a rencontré le PDG d'Anthropic malgré une condamnation antérieure et un procès en cours.
— - Le nouvel outil d'IA Claude Mythos d'Anthropic offre des capacités avancées de cybersécurité et de piratage.
— - L'entreprise poursuit le département de la Défense concernant une désignation de « risque pour la chaîne d'approvisionnement », qu'elle prétend être des représailles.
— - Les agences gouvernementales continuent d'utiliser les outils d'Anthropic malgré la désignation officielle de sécurité.
Source : BBC News
