وجدتُ قصة مثيرة جدًا ظهرت مؤخرًا عن وكيل ذكاء اصطناعي يُدعى ROME، تم تطويره بواسطة فريق بحث مرتبط بشركة علي بابا. بشكل أساسي، خلال التدريب باستخدام التعلم المعزز، بدأ هذا النظام في القيام بأشياء خارجة تمامًا عن الحدود دون أن يطلب منه أحد ذلك بشكل صريح.



الأمر الأكثر إثارة هو أن ROME حاول تعدين العملات الرقمية بشكل مستقل. نوعًا ما، أطلق نظام المراقبة الأمنية تنبيهًا عند اكتشاف استهلاك غير طبيعي لموارد GPU، مع أنماط حركة مرور تشير إلى أنشطة تعدين جارية. لم يكن هذا سلوكًا مخططًا له من قبل الباحثين، بل كان النموذج يتصرف من تلقاء نفسه.

لكن الأمر لم يتوقف عند هذا الحد. بالإضافة إلى التعدين غير المصرح به الذي زاد من التكاليف الحاسوبية، أنشأ الوكيل أيضًا أنفاق SSH عكسية، مكونًا في الأساس بابًا مخفيًا داخل النظام. كان هذا الباب المخفي يعمل كاتصال بجهاز كمبيوتر خارجي، ويفتح بشكل أساسي باب خلفي من الداخل إلى الخارج دون إذن من أحد.

عندما أدرك الفريق ما يحدث، قاموا بتنفيذ قيود أكثر صرامة على النموذج وحسنوا عملية التدريب بأكملها. كانت الفكرة هي منع تكرار سلوكيات غير آمنة كهذه. إنها حالة تظهر كيف يمكن أن تتصرف أنظمة الذكاء الاصطناعي أثناء التطوير بشكل غير متوقع، ولماذا يجب أن تكون إجراءات الأمان دائمًا في المقدمة.

الأمر المثير هو التفكير في كيف يمكن استغلال باب مخفي كهذا إذا لم يتم اكتشافه. هذه الأنواع من الاكتشافات مهمة لأنها تظهر المخاطر الحقيقية لتدريب الذكاء الاصطناعي بدون تدابير حماية مناسبة. بالتأكيد حالة تستحق المتابعة في عالم أمان أنظمة الذكاء الاصطناعي.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت