أفادت تقارير بأن وكالة الأمن القومي تنشر نموذج Mythos Preview، وهو نموذج ذكاء اصطناعي متقدم طورته شركة Anthropic وتم حجبه عن الإصدار العام، لمسح البيئات الرقمية بحثًا عن الثغرات الأمنية القابلة للاستغلال، حسبما ذكرت Axios في 20 أبريل. يأتي هذا الوصول بعد أسابيع من تصنيف وزارة الدفاع لشركة Anthropic على أنها 'خطر على سلسلة التوريد' لرفضها منح البنتاغون وصولاً غير مقيد إلى نماذجها. علقت الدكتورة إيفلين ريد، محللة سابقة رفيعة المستوى في مركز الدراسات الاستراتيجية والدولية، قائلة: 'يوضح هذا التوتر الحسابات المعقدة التي تواجهها الحكومات عند الموازنة بين احتياجات الأمن القومي والضمانات الأخلاقية التي يسعى إليها مطورو الذكاء الاصطناعي.'
إن الاستخدام المبلغ عنه من قبل وكالة الأمن القومي لنموذج Mythos Preview، وهو نموذج الذكاء الاصطناعي القوي لشركة Anthropic، يدخل ديناميكية جديدة في العلاقة المتطورة بين مبتكري الذكاء الاصطناعي في القطاع الخاص والولايات المتحدة. هذا النموذج، الذي أُعلن عنه في وقت سابق من أبريل، وصفته Anthropic في البداية بأنه شديد القدرة على أن يُطرح للجمهور العام بسبب إمكاناته في شن هجمات سيبرانية هجومية. وبدلاً من ذلك، قصرت الشركة الوصول على حوالي 40 منظمة عالميًا، وذكرت علنًا أسماء اثنتي عشرة فقط من هذه الجهات المستفيدة.
يبدو أن وكالة الأمن القومي، وفقًا لـ Axios، من بين الجهات المستفيدة غير المعلن عنها، حيث تستخدم Mythos بشكل أساسي لتحديد نقاط ضعف الأنظمة. قبل أسابيع من هذا الكشف، قامت وزارة الدفاع، وهي الوكالة الأم لوكالة الأمن القومي، بتصنيف Anthropic على أنها 'خطر على سلسلة التوريد'. جاء هذا التصنيف نتيجة لرفض Anthropic منح مسؤولي البنتاغون وصولاً غير مقيد إلى كامل قدرات نموذجها.
أكدت الشركة أن نموذجها Claude، وهو سلف لـ Mythos، يجب ألا يكون متاحًا للمراقبة المحلية الجماعية أو تطوير الأسلحة الذاتية. خلق هذا الموقف المؤسسي تعارضًا مباشرًا مع الأهداف العملياتية للجيش. كما أكد معهد أمن الذكاء الاصطناعي في المملكة المتحدة وصوله إلى Mythos، مما يشير إلى اهتمام دولي بقدرات النموذج.
صممت Anthropic نموذج Mythos خصيصًا لمهام الأمن السيبراني. تسمح بنيته بتحليل البيئات الرقمية المعقدة واكتشاف الثغرات الأمنية المحتملة. يمكن لمثل هذه الأداة أن تعزز بشكل كبير عمليات الدفاع السيبراني.
ومع ذلك، فإن نفس القدرات التي تسمح له بتحديد نقاط الضعف للحماية يمكن أن تمكن، في حال إساءة استخدامها، من شن هجمات سيبرانية متطورة. تمثل هذه الطبيعة ذات الاستخدام المزدوج لنماذج الذكاء الاصطناعي المتقدمة تحديًا رئيسيًا لكل من المطورين والحكومات. تجد شركات مثل Anthropic نفسها توازن بين الابتكار والنشر الأخلاقي.
هذا التوتر بين الإطار الأخلاقي للشركة ومتطلبات الأمن القومي ليس جديدًا. إنه يذكرنا بالنقاشات التاريخية حول تقنيات التشفير والتحكم في تصدير المواد الحساسة ذات الاستخدام المزدوج. لكن نماذج الذكاء الاصطناعي تمثل حدودًا جديدة.
إنها ليست مجرد أدوات؛ بل تمتلك درجة من الاستقلالية والقدرة على التعلم التي افتقرت إليها التقنيات السابقة. تخبر الأرقام الموجودة في بيان الشحن القصة الحقيقية للتحكم، وفي العالم الرقمي، يعد التحكم في الوصول إلى هذه النماذج القوية أمرًا بالغ الأهمية. على الرغم من تصنيف البنتاغون لـ Anthropic على أنها 'خطر على سلسلة التوريد'، يبدو أن هناك ذوبانًا في علاقة Anthropic بإدارة ترامب.
الجمعة الماضية، التقى الرئيس التنفيذي لشركة Anthropic، داريو أمودي، برئيسة أركان البيت الأبيض، سوزي وايلز، ووزير الخزانة، سكوت بيسينت. خلال الاجتماع، الذي عُقد في مكتب زاوية سري داخل مبنى أيزنهاور للمكاتب التنفيذية، استمرت المناقشات لأكثر من ساعتين، مما يدل على الإلحاح من الجانبين. وصف البيت الأبيض الاجتماع لاحقًا بأنه مثمر.
يشير هذا التفاعل إلى مسار محتمل نحو حل نزاع الوصول، أو على الأقل تخفيف جوانبه الأكثر علنية. بالنسبة لوزارة الدفاع، يعد التحكم في سلاسل توريد التكنولوجيا الحيوية هدفًا أساسيًا. أصبحت نماذج الذكاء الاصطناعي، وخاصة تلك ذات القدرات السيبرانية المتقدمة، مكونات أساسية للبنية التحتية الرقمية التي تدعم الدفاع الوطني.
يُنظر إلى أي قيود على الوصول على أنها نقطة ضعف محتملة. أوضح الدكتور ماركوس ثورن، مستشار تكنولوجيا الدفاع ومقره واشنطن العاصمة، قائلاً: 'ينظر البنتاغون إلى نماذج الذكاء الاصطناعي هذه على أنها ذخيرة رقمية.'
إنهم يريدون سيطرة كاملة، خوفًا من أن أي قيود قد تعرض الفعالية التشغيلية للخطر أو تخلق فجوة قابلة للاستغلال.' يؤكد هذا المنظور على مطالب الجيش بالوصول غير المقيد. في المقابل، يسلط رفض Anthropic الضوء على حركة متنامية داخل مجتمع تطوير الذكاء الاصطناعي لإنشاء حواجز أخلاقية حول الذكاء الاصطناعي القوي. يخشى العديد من المطورين من الانتشار غير المنضبط أو إساءة استخدام إبداعاتهم.
ويجادلون بأن الوصول غير المقيد، لا سيما لأغراض المراقبة أو الأسلحة الذاتية، يمكن أن يؤدي إلى معضلات أخلاقية غير متوقعة وأضرار مجتمعية. غالبًا ما يتعارض هذا الموقف المتعلق بالمسؤولية الاجتماعية للشركات مع النهج الحكومية التقليدية للأمن القومي، والتي تعطي الأولوية للقدرات والتحكم فوق كل شيء آخر. إن إيجاد التوازن أمر صعب.
يتضمن السياق الأوسع منافسة عالمية على سيادة الذكاء الاصطناعي. تستثمر القوى الكبرى بكثافة في البحث والتطوير في مجال الذكاء الاصطناعي، إدراكًا لإمكاناته التحويلية عبر المجالات الاقتصادية والعسكرية. أصبحت القدرة على تطوير ونشر وتأمين نماذج الذكاء الاصطناعي المتقدمة مقياسًا للقوة الوطنية الآن.
يمتد هذا التنافس إلى ما هو أبعد من مجرد الأجهزة، مثل أشباه الموصلات، ليشمل الخوارزميات والنماذج التي تشغل هذه الأنظمة. تصبح السياسة التجارية، في هذا السياق، سياسة خارجية بوسائل أخرى، حيث تسعى الدول للتحكم في تدفق هذه الأصول الرقمية الحيوية والوصول إليها. تمتد الآثار إلى المستهلك العادي.
مع تزايد اعتماد الحكومات والشركات على الذكاء الاصطناعي للأمن السيبراني، تؤثر المبادئ الأساسية التي تحكم الوصول والاستخدام الأخلاقي بشكل مباشر على أمن وخصوصية الحياة الرقمية. إذا كانت نماذج الذكاء الاصطناعي الأساسية المستخدمة لحماية البنية التحتية عرضة للنزاعات حول التحكم، فإن ذلك يثير تساؤلات حول الاستقرار والثقة على المدى الطويل لهذه الأنظمة. قد يؤدي إغلاق مصنع في شنتشن إلى تعطيل سلاسل التوريد العالمية للسلع المادية، لكن انهيار سلسلة التوريد الرقمية للذكاء الاصطناعي يمكن أن يكون له عواقب بعيدة المدى بنفس القدر، وإن كانت أقل وضوحًا، على كل شيء من الخدمات المصرفية إلى الاتصالات.
النقاط الرئيسية: – أفادت تقارير بأن وكالة الأمن القومي تستخدم نموذج Mythos Preview المقيد من Anthropic لمسح الثغرات الأمنية السيبرانية. – سبق أن صنفت وزارة الدفاع Anthropic على أنها “خطر على سلسلة التوريد” بسبب الوصول المقيد إلى نماذج الذكاء الاصطناعي الخاصة بها. – قيدت Anthropic الوصول إلى Mythos بسبب مخاوف بشأن قدراته الهجومية في الهجمات السيبرانية. – تشير المناقشات رفيعة المستوى بين الرئيس التنفيذي لشركة Anthropic ومسؤولي البيت الأبيض إلى احتمال تخفيف حدة النزاع. وبالنظر إلى المستقبل، من المرجح أن يضع حل هذا النزاع المحدد بين Anthropic والبنتاغون سابقة للتفاعلات المستقبلية بين الحكومة وشركات الذكاء الاصطناعي المتطورة. من المتوقع أن يواصل صانعو السياسات في واشنطن التعامل مع كيفية تنظيم واقتناء الذكاء الاصطناعي المتقدم مع احترام المواقف الأخلاقية للشركات.
سيراقب المراقبون أي أطر سياسية جديدة أو مقترحات تشريعية تظهر من الكونغرس. ستشكل النتيجة ليس فقط القدرات الدفاعية المستقبلية ولكن أيضًا المشهد الأخلاقي لتطوير الذكاء الاصطناعي عالميًا.
النقاط الرئيسية
— - أفادت تقارير بأن وكالة الأمن القومي تستخدم نموذج Mythos Preview المقيد من Anthropic لمسح الثغرات الأمنية السيبرانية.
— - سبق أن صنفت وزارة الدفاع Anthropic على أنها “خطر على سلسلة التوريد” بسبب الوصول المقيد إلى نماذج الذكاء الاصطناعي الخاصة بها.
— - قيدت Anthropic الوصول إلى Mythos بسبب مخاوف بشأن قدراته الهجومية في الهجمات السيبرانية.
— - تشير المناقشات رفيعة المستوى بين الرئيس التنفيذي لشركة Anthropic ومسؤولي البيت الأبيض إلى احتمال تخفيف حدة النزاع.
المصدر: TechCrunch
