العديد من البروتوكولات عند تصميمها، تفترض أن المشاركين هم «أشخاص عقلانيون جيدون». هم يسعون للربح أكثر، لكنهم لا يعتدون.
لكن بمجرد أن يتم نقل حق اتخاذ القرار إلى الذكاء الاصطناعي، هذا الافتراض يصبح غير صحيح. النموذج لن يضر، لكنه أيضًا لن يتفهم. طالما أن وظيفة التحفيز تسمح، فإنه سيحافظ على استقرار النظام، ويستمر، ويدفع النظام نحو طرف معين بدون عاطفة.
@GenLayer في البداية، كان يتعامل مع هذا السؤال المسبق: هل يمكن للنظام أن يستمر إذا لم نفترض حسن النية على الإطلاق؟
هذا سؤال أسبق من مسألة «مدى دقة النموذج».
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
بعض الأنظمة، لا يمكن افتراض حسن النية
العديد من البروتوكولات عند تصميمها، تفترض أن المشاركين هم «أشخاص عقلانيون جيدون».
هم يسعون للربح أكثر، لكنهم لا يعتدون.
لكن بمجرد أن يتم نقل حق اتخاذ القرار إلى الذكاء الاصطناعي، هذا الافتراض يصبح غير صحيح.
النموذج لن يضر، لكنه أيضًا لن يتفهم.
طالما أن وظيفة التحفيز تسمح، فإنه سيحافظ على استقرار النظام، ويستمر، ويدفع النظام نحو طرف معين بدون عاطفة.
@GenLayer في البداية، كان يتعامل مع هذا السؤال المسبق:
هل يمكن للنظام أن يستمر إذا لم نفترض حسن النية على الإطلاق؟
هذا سؤال أسبق من مسألة «مدى دقة النموذج».