ذكرت بلومبرج في 22 أبريل 2026 أن أداة الأمن السيبراني المتطورة Mythos التابعة لـ Anthropic، والمصممة لحماية أنظمة الشركات، قد تم الوصول إليها من قبل مجموعة غير مصرح لها عبر بائع طرف ثالث. يثير هذا الحادث على الفور تساؤلات حول أمن نماذج الذكاء الاصطناعي وسلامة سلاسل التوريد الرقمية. صرح متحدث باسم Anthropic لـ TechCrunch، مؤكداً التحقيق الجاري: "نحن نحقق في تقرير يزعم وصولاً غير مصرح به إلى Claude Mythos Preview عبر إحدى بيئات بائعينا من الأطراف الثالثة."
وفقاً لبلومبرج، وقع الوصول غير المصرح به إلى Mythos في نفس اليوم الذي تم فيه الإعلان عن الأداة علناً. نجح أعضاء من منتدى خاص عبر الإنترنت، يعملون عبر قناة Discord مخصصة لاكتشاف نماذج الذكاء الاصطناعي غير المعلن عنها، في استغلال ثغرة أمنية داخل نظام Anthropic البيئي للبائعين. قامت المجموعة بتخمين مدروس حول الموقع الإلكتروني للنموذج، مستفيدة من رؤى حول اصطلاحات التسمية المعمول بها لدى Anthropic لهياكل الذكاء الاصطناعي الأخرى.
لم يكن هذا هجوماً عنيفاً. بل يشير إلى فهم منهجي للبصمة الرقمية للشركة. كانت Anthropic قد أطلقت Mythos لمجموعة مختارة من البائعين، بما في ذلك شركات التكنولوجيا الكبرى مثل Apple، ضمن مبادرة تُعرف باسم Project Glasswing.
كان الغرض الأساسي للبرنامج هو ضمان إطلاق متحكم فيه، لمنع السيناريو الذي حدث الآن. ناقشت الشركة نفسها علناً إمكانات Mythos ذات الاستخدام المزدوج: أصل قوي لتعزيز أمن الشركات، ومع ذلك سلاح فعال إذا وقع في الأيدي الخطأ. صرحت Anthropic خلال إعلانها أن قدراته تشمل الكشف المتقدم عن التهديدات، وتقييمات الثغرات الأمنية الآلية، والتخطيط المتطور للاستجابة للحوادث.
مثل هذه الأداة في أيدي خبيثة تمثل خطراً كبيراً. فصّل تقرير بلومبرج كيف حصلت المجموعة على الوصول عبر موظف متعاقد من طرف ثالث يعمل لصالح Anthropic. ويُزعم أن صلاحيات هذا الفرد الحالية داخل بيئة البائع كانت أساسية في تسهيل الاختراق.
قدمت المجموعة لبلومبرج أدلة ملموسة، بما في ذلك لقطات شاشة وعرض حي للبرنامج وهو يعمل. لم يكن هذا اختراقاً نظرياً. بل كان اختراقاً قابلاً للتحقق.
إليكم ما لا يخبرونكم به: يعرض الاعتماد على البائعين من الأطراف الثالثة مساحات هجوم كبيرة لا يمكن حتى لأقوى بروتوكولات الأمان الداخلية التخفيف منها بالكامل. غالباً ما تفوض الشركات وظائف حاسمة، مما يخلق شبكات معقدة من الوصول والصلاحيات. يمكن لصلة ضعيفة واحدة في هذه السلسلة أن تعرض نظاماً بأكمله للخطر، بغض النظر عن استثمار الشركة المباشر في الأمن السيبراني.
يؤكد هذا الحادث معضلة مستمرة لشركات التكنولوجيا: الموازنة بين الابتكار السريع وضرورة النشر الآمن. تؤكد Anthropic أنها لم تعثر على دليل على أن النشاط غير المصرح به قد أثر على أنظمتها الداخلية. هذا البيان، بينما يبعث على الطمأنينة للبعض، لا يعالج بشكل كامل الآثار المترتبة على شركاء Project Glasswing أو المشهد الأمني الأوسع.
حقيقة أن مجموعة خارجية تمكنت من تشغيل الأداة على الإطلاق، حتى بدون وصول مباشر إلى البنية التحتية الأساسية لـ Anthropic، تمثل قصوراً في التحكم. بالنسبة لشركات مثل Apple، التي حصلت على وصول مبكر، قد يدفع الحادث إلى مراجعة بروتوكولات التكامل الخاصة بها مع الأطراف الثالثة. تعتمد سلامة برامج الوصول المتحكم فيه على ضمان مطلق.
زعمت المجموعة التي تقف وراء الوصول أن دافعها كان مجرد "اللعب بنماذج جديدة"، وليس "إحداث الفوضى" بها. هذا القصد، كما ذكرت بلومبرج، يقدم تمييزاً حاسماً. إنه يشير إلى استكشاف مدفوع بالفضول بدلاً من هجوم سيبراني بدوافع مالية أو برعاية دولة.
ومع ذلك، يمكن أن تتلاشى الحدود بين الفضول والاستغلال بسرعة. فما يبدأ كتجربة يمكن أن يكشف بسهولة عن ثغرات أمنية يمكن أن يستغلها لاحقاً فاعلون أكثر شراً. لا تتطابق الحسابات عندما يمكن تجربة أداة قوية مصممة للدفاع بحرية من قبل كيانات غير موثوقة.
يلفت الحادث الانتباه إلى المجال المزدهر لسلامة وحوكمة الذكاء الاصطناعي. فمع تزايد تعقيد وتنوع نماذج الذكاء الاصطناعي، تتزايد إمكانية إساءة استخدامها بشكل كبير. وقد حذرت منظمات مثل AI Safety Institute باستمرار من تحديات التحكم في الذكاء الاصطناعي المتقدم، وخاصة تلك التي تتمتع بقدرات عامة الغرض.
يوفر اختراق Mythos مثالاً ملموساً على تجسد هذه المخاطر النظرية في سيناريو واقعي. إنه تذكير صارخ بالحاجة إلى مبادئ توجيهية أخلاقية قوية وتدابير أمنية من التصميم إلى النشر. توجد أوجه تشابه تاريخية في تطوير تقنيات أخرى ذات استخدام مزدوج، من التشفير إلى البحث البيولوجي.
على سبيل المثال، صُممت بروتوكولات الإنترنت المبكرة للوصول المفتوح والتعاون، مما أدى عن غير قصد إلى إنشاء ثغرات أمنية تطلبت عقوداً من التصحيحات وتحديثات الأمان لمعالجتها. غالباً ما تعطي وتيرة تطوير الذكاء الاصطناعي السريعة الأولوية للوظائف وسرعة الوصول إلى السوق على حساب عمليات تدقيق الأمان الشاملة. يشير هذا الحادث إلى أن Anthropic، على الرغم من احتياطاتها المعلنة، ربما واجهت ضغوطاً مماثلة.
اتبع النفوذ، لا الخطاب؛ غالباً ما تفوق ضغوط الإطلاق القدرة على تحقيق أمان مطلق. يمتد الضرر الاقتصادي لمثل هذا الاختراق إلى ما هو أبعد من الخسائر المالية الفورية. يمكن أن يكون الضرر بالسمعة شديداً وطويل الأمد، مما يؤثر على ثقة المستثمرين والشراكات المستقبلية.
بالنسبة لشركة مثل Anthropic، التي تضع نفسها في طليعة تطوير الذكاء الاصطناعي المسؤول، فإن الحفاظ على الثقة أمر بالغ الأهمية. قد يجبر الحادث على إعادة تقييم سياسات الإشراف على البائعين لديها، مما قد يؤدي إلى التزامات تعاقدية أكثر صرامة وعمليات تدقيق أمنية أكثر تكراراً لشركائها. وهذا يضيف تعقيداً تشغيلياً وتكلفة.
يتصارع المنظمون عالمياً مع كيفية حوكمة الذكاء الاصطناعي بفعالية. يوفر هذا الحدث ذخيرة جديدة لأولئك الذين يدعون إلى فرض ضوابط أكثر صرامة على نماذج الذكاء الاصطناعي القوية. يناقش صانعو السياسات في الاتحاد الأوروبي والولايات المتحدة وأماكن أخرى بنشاط تشريعات من شأنها أن تفرض شفافية ومساءلة أكبر من مطوري الذكاء الاصطناعي.
يمكن أن يؤدي اختراق يتضمن أداة ذكاء اصطناعي للأمن السيبراني إلى تسريع هذه المناقشات، مما قد يؤدي إلى متطلبات جديدة لتقييم المخاطر، والتدقيقات المستقلة، والإبلاغ عن الحوادث لأنظمة الذكاء الاصطناعي. من المرجح أن يصبح هذا الحادث دراسة حالة في المناقشات التنظيمية المستقبلية. النقاط الرئيسية: - تم الوصول إلى الذكاء الاصطناعي Mythos التابع لـ Anthropic، وهو أداة قوية للأمن السيبراني، من قبل مجموعة غير مصرح لها عبر بائع طرف ثالث. - وقع الاختراق في يوم الإعلان العام عن Mythos، مما قوض استراتيجية Anthropic للإطلاق المتحكم فيه. - تضمنت الطريقة "تخميناً مدروساً" حول الموقع الإلكتروني للنموذج والوصول عبر موظف متعاقد. - صرحت Anthropic بعدم وجود تأثير على أنظمتها الداخلية، لكن الحادث يسلط الضوء على مخاطر أمن سلسلة التوريد الأوسع لنماذج الذكاء الاصطناعي.
لماذا يهم: يمثل هذا الحادث اختباراً حاسماً لقدرة صناعة الذكاء الاصطناعي الناشئة على تأمين أقوى أدواتها. إنه يكشف عن الثغرات الكامنة في سلاسل التوريد الرقمية المعقدة وتحديات التحكم في التقنيات ذات الاستخدام المزدوج. بالنسبة للشركات، فإنه يؤكد الحاجة الملحة إلى التدقيق في ممارسات أمان البائعين الخاصة بها.
بالنسبة للمنظمين، فإنه يقدم مثالاً واقعياً للمخاطر المرتبطة بالذكاء الاصطناعي المتقدم، مما قد يؤثر على التشريعات المستقبلية التي تهدف إلى ضمان سلامة الذكاء الاصطناعي ومساءلته. للمضي قدماً، تواجه Anthropic تدقيقاً مكثفاً لتفصيل النطاق الكامل للاختراق وتحديد خطوات ملموسة لمنع تكراره. سيتم مراقبة التحقيق الجاري للشركة، والذي أكدته لـ TechCrunch، عن كثب من قبل أقران الصناعة والعملاء المحتملين.
توقعوا بياناً عاماً يفصل جهود المعالجة وبروتوكولات أمنية منقحة محتملة لمشروع Glasswing. من المرجح أن يستخدم المنظمون والهيئات الصناعية هذا الحادث كمعيار، للدفع نحو معايير أمنية معززة عبر النظام البيئي للذكاء الاصطناعي بأكمله في الأشهر القادمة.
النقاط الرئيسية
— - تم الوصول إلى الذكاء الاصطناعي Mythos التابع لـ Anthropic، وهو أداة قوية للأمن السيبراني، من قبل مجموعة غير مصرح لها عبر بائع طرف ثالث.
— - وقع الاختراق في يوم الإعلان العام عن Mythos، مما قوض استراتيجية Anthropic للإطلاق المتحكم فيه.
— - تضمنت الطريقة "تخميناً مدروساً" حول الموقع الإلكتروني للنموذج والوصول عبر موظف متعاقد.
— - صرحت Anthropic بعدم وجود تأثير على أنظمتها الداخلية، لكن الحادث يسلط الضوء على مخاطر أمن سلسلة التوريد الأوسع لنماذج الذكاء الاصطناعي.
المصدر: TechCrunch (نقلاً عن بلومبرج)









