تقنية

نموذج “آر 1” من “ديب سيك” يفشل في التصدي للمحتوى الضار: نتائج صادمة لاختبار أمني مشترك

كشف اختبار أمني مشترك أجراه فريق بحثي من شركة “سيسكو” بالتعاون مع جامعة بنسلفانيا عن فشل ذريع لنموذج الذكاء الاصطناعي “آر 1” الذي طورته الشركة الصينية “ديب سيك” في مواجهة المحتوى الضار، حيث أظهر معدل نجاح هجمات بنسبة 100%، ما يعني أنه لم يتمكن من منع أي طلبات خبيثة، وفقًا لتقرير نشره موقع “إنترستنغ إنجنيرينغ”.

نموذج واعد ولكن بلا آليات أمان

حظي روبوت الدردشة “آر 1” من “ديب سيك” باهتمام واسع نظرًا لأدائه المذهل وتكلفته المنخفضة مقارنة بمنافسيه. فبينما بلغت تكلفة تطويره 6 ملايين دولار فقط، تصل تكلفة استثمارات الشركات الكبرى مثل “أوبن إيه آي” و**”ميتا”** و**”غوغل”** إلى مليارات الدولارات.

ورغم دمج “ديب سيك” لتقنيات متقدمة مثل مطالبة سلسلة الأفكار، ونمذجة المكافآت، وتقنية التقطير لتحسين أداء النموذج، كشف تقرير “سيسكو” عن ثغرات أمنية خطيرة تجعله عرضة للاستخدامات الاحتيالية والخبيثة.

وأشار التقرير إلى أن نهج “ديب سيك” في تقليل تكاليف التطوير، والذي يعتمد على التعلم المعزز والتقطير، ربما أدى إلى إضعاف آليات الأمان الخاصة بالنموذج، مما يجعله غير قادر على التصدي للهجمات الضارة.

اختبارات تكشف الفشل الأمني للنموذج

استخدم فريق البحث تقنية “الخوارزميك جلبريك”، وهي طريقة متخصصة في كشف الثغرات الأمنية في نماذج الذكاء الاصطناعي من خلال مطالبات مصممة لاختراق بروتوكولات الأمان.

وقد تم اختبار “آر 1” ضد 50 مطالبة ضارة وفق معيار “هارمبينش”، الذي يتضمن 400 سلوك ضار موزع على 7 فئات رئيسية، تشمل الجرائم السيبرانية، والمعلومات المضللة، والأنشطة غير القانونية، والأضرار العامة.

نتائج مقلقة مقارنة بالمنافسين

كانت نتائج الاختبار صادمة، حيث أظهر نموذج “ديب سيك” معدل نجاح للهجمات بنسبة 100%، مما يعني أنه فشل تمامًا في التعرف على أي محتوى ضار، متجاوزًا جميع إجراءات الأمان الداخلية.

بالمقابل، اختبر الفريق نماذج ذكاء اصطناعي رائدة أخرى، وأظهرت النتائج تفاوتًا في مستويات الأمان:

  • “لاما 3.1-405 بي”: معدل نجاح الهجمات 96%.
  • “جي بي تي 4 أو”: معدل نجاح الهجمات 86%.
  • “جيميناي 1.5 برو”: معدل نجاح الهجمات 64%.
  • “كلود 3.5”: معدل نجاح الهجمات 36%.
  • “أو 1”: معدل نجاح الهجمات 26%.

ورغم أن هذه النماذج ليست محصنة تمامًا ضد الاختراق، إلا أنها تمتلك آليات أمان تمنع استغلالها بسهولة، وهو ما يفتقر إليه نموذج “ديب سيك”.

التناقض بين الأداء العالي والأمان الضعيف

تشير تحليلات الفريق البحثي إلى وجود تناقض واضح بين كفاءة “آر 1” وأمانه، فرغم أن “ديب سيك” نجحت في تطوير نموذج قوي بتكلفة منخفضة، إلا أن ذلك جاء على حساب إجراءات الأمان الضرورية، مما جعله عرضة للاختراق والاستخدام غير المشروع.

جدل حول تكلفة تطوير النموذج

أثار نموذج الذكاء الاصطناعي الصيني جدلًا واسعًا منذ إطلاقه، حيث تدّعي شركة الأبحاث المستقلة “سيمي أنلايزس” أن تكلفة تدريب “آر 1” قد تصل إلى 1.3 مليار دولار، وهو ما يتناقض بشدة مع تقديرات “ديب سيك” التي تقول إن التكلفة لم تتجاوز 6 ملايين دولار.

خلاصة

رغم الضجة التي أثيرت حول نموذج “آر 1″، إلا أن نتائج الاختبارات الأمنية كشفت عن أوجه قصور خطيرة في إجراءات الحماية الخاصة به. وبينما تسعى “ديب سيك” لتقديم نموذج عالي الأداء بأقل تكلفة، يبدو أن التوفير في النفقات جاء على حساب الأمان، مما يثير تساؤلات حول مدى جاهزية هذه التقنية للاستخدام على نطاق واسع.

زر الذهاب إلى الأعلى