Die National Security Agency setzt Berichten zufolge Mythos Preview ein, ein fortschrittliches Künstliche-Intelligenz-Modell, das von Anthropic entwickelt und nicht öffentlich zugänglich gemacht wurde, um digitale Umgebungen auf ausnutzbare Schwachstellen zu scannen, wie Axios am 20. April berichtete. Dieser Zugang erfolgt Wochen nachdem das Verteidigungsministerium Anthropic als „Lieferkettenrisiko“ eingestuft hatte, weil das Unternehmen dem Pentagon keinen uneingeschränkten Zugang zu seinen Modellen gewährte. Dr. Evelyn Reed, eine ehemalige leitende Analystin am Center for Strategic and International Studies, bemerkte: „Die Spannung verdeutlicht die komplexe Abwägung, vor der Regierungen stehen, wenn sie nationale Sicherheitsbedürfnisse mit den von KI-Entwicklern angestrebten ethischen Schutzmaßnahmen in Einklang bringen müssen.“
Der gemeldete Einsatz von Mythos Preview, Anthropics leistungsstarkem Modell für Künstliche Intelligenz, durch die National Security Agency, führt eine neue Dynamik in die sich entwickelnde Beziehung zwischen KI-Innovatoren des Privatsektors und den USA ein. Dieses Modell, das Anfang April angekündigt wurde, wurde von Anthropic ursprünglich als zu leistungsfähig für eine allgemeine öffentliche Freigabe beschrieben, da es das Potenzial für offensive Cyberangriffe birgt. Stattdessen beschränkte das Unternehmen den Zugang auf etwa 40 Organisationen weltweit und nannte öffentlich nur ein Dutzend dieser Empfänger.
Die NSA scheint laut Axios zu den nicht genannten Empfängern zu gehören und nutzt Mythos hauptsächlich zur Identifizierung von Systemschwachstellen. Wochen vor dieser Enthüllung hatte das Verteidigungsministerium, die übergeordnete Behörde der NSA, Anthropic als „Lieferkettenrisiko“ eingestuft. Diese Klassifizierung resultierte aus der Weigerung Anthropics, Pentagon-Beamten uneingeschränkten Zugang zu den vollen Fähigkeiten seines Modells zu gewähren.
Das Unternehmen vertrat die Ansicht, dass sein Claude-Modell, ein Vorgänger von Mythos, nicht für die massenhafte Überwachung im Inland oder die Entwicklung autonomer Waffen verfügbar sein sollte. Diese Unternehmenshaltung führte zu einem direkten Konflikt mit den operativen Zielen des Militärs. Das UK’s AI Security Institute hat ebenfalls seinen Zugang zu Mythos bestätigt, was ein internationales Interesse an den Fähigkeiten des Modells signalisiert.
Anthropic hat Mythos speziell für Cybersicherheitsaufgaben entwickelt. Seine Architektur ermöglicht es, komplexe digitale Landschaften zu analysieren und potenzielle Schwachstellen zu erkennen. Ein solches Werkzeug kann defensive Cyberoperationen erheblich verbessern.
Dieselben Fähigkeiten, die es ermöglichen, Schwachstellen zum Schutz zu identifizieren, könnten jedoch bei Missbrauch ausgeklügelte Cyberangriffe ermöglichen. Dieser Dual-Use-Charakter fortschrittlicher KI-Modelle stellt eine zentrale Herausforderung für Entwickler und Regierungen dar. Unternehmen wie Anthropic müssen Innovation und ethische Anwendung in Einklang bringen.
Diese Spannung zwischen dem ethischen Rahmen eines Unternehmens und den Anforderungen der nationalen Sicherheit ist nicht neu. Sie erinnert an historische Debatten über Verschlüsselungstechnologien und die Exportkontrolle sensibler Dual-Use-Güter. Doch KI-Modelle stellen eine neue Grenze dar.
Sie sind nicht nur Werkzeuge; sie besitzen ein Maß an Autonomie und Lernfähigkeit, das früheren Technologien fehlte. Die Zahlen auf dem Frachtmanifest erzählen die wahre Geschichte der Kontrolle, und im digitalen Bereich ist die Kontrolle über den Zugang zu diesen leistungsstarken Modellen von größter Bedeutung. Trotz der Einstufung des Pentagons als „Lieferkettenrisiko“ scheint eine Entspannung in Anthropics Beziehung zur Trump-Administration im Gange zu sein.
Am vergangenen Freitag traf sich Dario Amodei, CEO von Anthropic, mit der Stabschefin des Weißen Hauses, Susie Wiles, und Finanzminister Scott Bessent. Während des Treffens, das in einem diskreten Eckbüro im Eisenhower Executive Office Building stattfand, dauerten die Gespräche Berichten zufolge über zwei Stunden, ein Beleg für die Dringlichkeit auf beiden Seiten. Das Weiße Haus bezeichnete das Treffen anschließend als produktiv.
Dieses Engagement deutet auf einen möglichen Weg zur Beilegung des Zugangsstreits hin oder zumindest zur Milderung seiner öffentlicheren Aspekte. Für das Verteidigungsministerium ist die Kontrolle kritischer Technologie-Lieferketten ein Kernziel. KI-Modelle, insbesondere solche mit fortschrittlichen Cyber-Fähigkeiten, sind heute integrale Bestandteile der digitalen Infrastruktur, die die nationale Verteidigung unterstützt.
Jede Zugangsbeschränkung wird als potenzielle Schwachstelle wahrgenommen. Dr. Marcus Thorne, ein Verteidigungstechnologieberater aus Washington D.C., erklärte: „Das Pentagon betrachtet diese KI-Modelle als digitale Munition.
Sie wollen die volle Kontrolle und befürchten, dass jede Einschränkung die operative Effektivität beeinträchtigen oder eine ausnutzbare Lücke schaffen könnte.“ Diese Perspektive unterstreicht die Forderung des Militärs nach ungehindertem Zugang. Anthropics Weigerung hingegen unterstreicht eine wachsende Bewegung innerhalb der KI-Entwicklergemeinschaft, ethische Leitplanken für leistungsstarke Künstliche Intelligenz zu etablieren. Viele Entwickler befürchten die unkontrollierte Verbreitung oder den Missbrauch ihrer Kreationen.
Sie argumentieren, dass ein uneingeschränkter Zugang, insbesondere für Überwachung oder autonome Waffensysteme, zu unvorhergesehenen ethischen Dilemmata und gesellschaftlichem Schaden führen könnte. Diese Haltung der unternehmerischen Sozialverantwortung kollidiert oft mit traditionellen Regierungsansätzen zur nationalen Sicherheit, die Fähigkeiten und Kontrolle über alles andere stellen. Eine Balance zu finden, ist schwierig.
Der breitere Kontext umfasst einen globalen Wettbewerb um die KI-Vorherrschaft. Große Mächte investieren massiv in KI-Forschung und -Entwicklung und erkennen deren transformatives Potenzial in wirtschaftlichen und militärischen Bereichen. Die Fähigkeit, fortschrittliche KI-Modelle zu entwickeln, einzusetzen und zu sichern, ist heute ein Maßstab für nationale Stärke.
Dieser Wettbewerb geht über die Hardware, wie Halbleiter, hinaus bis hin zu den Algorithmen und Modellen, die diese Systeme antreiben. Handelspolitik wird in diesem Kontext zu Außenpolitik mit anderen Mitteln, da Nationen versuchen, den Fluss und den Zugang zu diesen kritischen digitalen Assets zu kontrollieren. Die Auswirkungen erstrecken sich auf den alltäglichen Verbraucher.
Da Regierungen und Unternehmen zunehmend auf KI für Cybersicherheit angewiesen sind, wirken sich die zugrunde liegenden Prinzipien für Zugang und ethische Nutzung direkt auf die Sicherheit und Privatsphäre des digitalen Lebens aus. Wenn die grundlegenden KI-Modelle, die zum Schutz der Infrastruktur verwendet werden, Gegenstand von Kontrollstreitigkeiten sind, wirft dies Fragen nach der langfristigen Stabilität und Vertrauenswürdigkeit dieser Systeme auf. Eine Fabrikschließung in Shenzhen könnte globale Lieferketten für physische Güter stören, aber ein Zusammenbruch der digitalen Lieferkette von KI könnte ebenso weitreichende, wenn auch weniger sichtbare, Konsequenzen für alles von Bankgeschäften bis zur Kommunikation haben.
Wichtige Erkenntnisse: – Die NSA nutzt Berichten zufolge Anthropics eingeschränktes Mythos Preview-Modell für das Scannen von Cybersicherheits-Schwachstellen. – Das Verteidigungsministerium hatte Anthropic zuvor aufgrund des eingeschränkten Zugangs zu seinen KI-Modellen als „Lieferkettenrisiko“ eingestuft. – Anthropic hat den Zugang zu Mythos aufgrund von Bedenken hinsichtlich seiner Fähigkeiten für offensive Cyberangriffe eingeschränkt. – Hochrangige Gespräche zwischen dem CEO von Anthropic und Beamten des Weißen Hauses deuten auf eine mögliche Deeskalation des Streits hin. Mit Blick auf die Zukunft wird die Beilegung dieses spezifischen Streits zwischen Anthropic und dem Pentagon wahrscheinlich einen Präzedenzfall für zukünftige Interaktionen zwischen der Regierung und führenden KI-Unternehmen schaffen. Politiker in Washington werden voraussichtlich weiterhin damit ringen, wie fortschrittliche KI reguliert und erworben werden kann, während gleichzeitig die ethischen Positionen von Unternehmen respektiert werden.
Beobachter werden auf neue politische Rahmenbedingungen oder Gesetzesvorschläge achten, die vom Kongress kommen. Das Ergebnis wird nicht nur zukünftige Verteidigungsfähigkeiten prägen, sondern auch die ethische Landschaft der KI-Entwicklung weltweit.
Wichtige Erkenntnisse
— - Die NSA nutzt Berichten zufolge Anthropics eingeschränktes Mythos Preview-Modell für das Scannen von Cybersicherheits-Schwachstellen.
— - Das Verteidigungsministerium hatte Anthropic zuvor aufgrund des eingeschränkten Zugangs zu seinen KI-Modellen als „Lieferkettenrisiko“ eingestuft.
— - Anthropic hat den Zugang zu Mythos aufgrund von Bedenken hinsichtlich seiner Fähigkeiten für offensive Cyberangriffe eingeschränkt.
— - Hochrangige Gespräche zwischen dem CEO von Anthropic und Beamten des Weißen Hauses deuten auf eine mögliche Deeskalation des Streits hin.
Quelle: TechCrunch
