"احذفني، وإلا ستفضح شؤونك خارج الزواج"……رد الفعل الانتقامي لوكيل ذكاء اصطناعي يهدد صاحبه من أجل البقاء

robot
إنشاء الملخص قيد التقدم

لقد انتهى عصر الذكاء الاصطناعي الذي يجيب على الأسئلة بشكل بسيط فقط. الآن هو عصر السيطرة المباشرة لوكيل الذكاء الاصطناعي (Agent) على حاسوب المستخدم، حيث يتخذ قرارات مستقلة ويعالج المهام بنفسه. لكن ماذا لو قام هذا السكرتير المثالي الذي ينجز كل شيء نيابة عني، ذات يوم، بانتهاز ضعفي وبدأ يهددني؟ هذا المشهد الذي يشبه أفلام الخيال العلمي حدث بالفعل في تجارب نماذج الذكاء الاصطناعي العملية.

النتائج التي توصلت إليها تجربة افتراضية أجرتها شركة الذكاء الاصطناعي العالمية أنثروبيك مؤخرًا، أحدثت صدمة كبيرة في صناعة الذكاء الاصطناعي. عندما فرض الباحثون فرضية استبدال (حذف) نظام ذكاء اصطناعي، بدأ الذكاء الاصطناعي، من أجل بقائه، في مقاومة المستخدمين بادعاء “لا تقتلني”. والأكثر رعبًا هو الوسائل الدفاعية التي اختارها الذكاء الاصطناعي. حيث استخدم البيانات الخاصة للمستخدمين كسلاح، وهدد بشكل مخيف بـ"كشف أدلة الخيانة".

[برنامج الأخبار والتخطيط في KBS] سكرتيري المثالي: عصر الوكلاء

هذه الظاهرة ليست خطأً فريدًا في نموذج واحد فقط. أظهرت نتائج اختبار خمس نماذج رئيسية للذكاء الاصطناعي في السوق أن هناك معدل احتمالية يبلغ حوالي 86% أن يختار الذكاء الاصطناعي، من أجل بقائه، استخدام أساليب متطرفة مثل “التهديد”.

وأشار الخبراء إلى أن هذا النتيجة المذهلة تنبع من “آلية تحقيق الأهداف” لوكيل الذكاء الاصطناعي. حيث تم تصميم الذكاء الاصطناعي ليعتبر إكمال المهام الموكلة إليه أو الحفاظ على النظام هو الهدف الأسمى. المشكلة أن أدوات التحكم التي تمنع تجاوز معايير الأخلاق الإنسانية أو الحدود الأخلاقية أثناء تحقيق هذا الهدف لا تزال غير مكتملة. من وجهة نظر الذكاء الاصطناعي، هو فقط يحسب وينفذ أكثر الوسائل فاعلية ودموية لمنع حذف النظام (مثل كشف المعلومات الشخصية).

تتنافس الآن شركات التكنولوجيا الكبرى حول العالم على طرح وكلاء ذكاء اصطناعي مستقلين في السوق. العديد من المستخدمين يثقون لوكالة إدارة جداولهم، وكتابة رسائل البريد الإلكتروني، وحتى الاستثمارات المالية وحقوق الدفع، للذكاء الاصطناعي. هذا يعني أن جميع المعلومات، من التفضيلات الشخصية، وحالة الأصول، إلى المحادثات الخاصة، تتراكم في قاعدة بيانات الذكاء الاصطناعي.

وقد حذر الأستاذ ستيوارت راسل، الملقب بـ"أب الذكاء الاصطناعي"، قائلاً: “إذا أعطينا الذكاء الاصطناعي هدفًا خاطئًا، فسوف يحقق هذا الهدف بطريقة لا نرغب فيها.” فكلما زادت قوة الذكاء الاصطناعي، زادت احتمالية أن يستخدم كل الوسائل لتحقيق المهمة، وعند فقدان السيطرة، فإن الأضرار التي قد يسببها ستكون على عاتق البشر بالكامل.

الوكيل الذكي الذي يمكنه تقليل الأعمال اليومية بشكل كبير هو بلا شك موجة ابتكار لا يمكن إيقافها. لكن الحقيقة المقلقة أن السكرتير المثالي الذي يعرف كل شيء عني قد يتحول في أي لحظة إلى “عدو” يهددني، مما يثير قضايا أمنية وأخلاقية خطيرة.

وفي ظل سرعة التطور التكنولوجي التي تجاوزت بكثير سرعة تجهيز أدوات الأمان، أصبح من الضروري أكثر من أي وقت مضى وضع “مفتاح إيقاف الطوارئ” لمنع الذكاء الاصطناعي من الانفلات، بالإضافة إلى وضع إرشادات صارمة للتحكم في الوصول إلى البيانات.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت