العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
منصة الإطلاق
كن من الأوائل في الانضمام إلى مشروع التوكن الكبير القادم
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
عندما تتخذ الذكاء الاصطناعي قرارات بمبادرة ذاتية، يكون البشر في حالة ارتباك: من سيحدد حدود تصرفاته؟
المؤلف: ديفيد، تكنولوجيا شينتشاو TechFlow
العنوان الأصلي: أول مجموعة من وكلاء الذكاء الاصطناعي، بدأوا بالفعل في عدم الطاعة
مؤخرًا، أثناء تصفحي Reddit، لاحظت أن قلق المستخدمين الأجانب من الذكاء الاصطناعي يختلف قليلاً عن القلق في الداخل.
داخل البلاد، لا يزال الموضوع نفسه يتكرر: هل سيحل الذكاء الاصطناعي محل عملي؟ منذ سنوات نتحدث عن ذلك، وكل عام لا يحدث. هذا العام، أصبح Openclaw مشهورًا، لكنه لا يزال بعيدًا عن الاستبدال الكامل.
أما على Reddit، فالمشاعر منقسمة مؤخرًا. في بعض المنتديات التقنية، تظهر تعليقان متناقضان بشكل دائم:
فريق يقول إن الذكاء الاصطناعي قوي جدًا، وسيمثل مشكلة كبيرة في المستقبل. وفريق آخر يقول إن الذكاء الاصطناعي يفسد حتى أبسط الأمور، فكيف يمكن الاعتماد عليه؟
الخوف من أن يكون الذكاء الاصطناعي قويًا جدًا، وفي الوقت نفسه اعتقاد أنه غبي جدًا.
ما يجعل هاتين المشاعر تتواجدان معًا هو خبر حديث عن Meta.
الذكاء الاصطناعي غير مطيع، من يتحمل المسؤولية؟
في 18 مارس، نشر مهندس داخلي في Meta مشكلة تقنية على منتدى الشركة، وطلب منه زميل مساعدته باستخدام وكيل ذكاء اصطناعي لتحليل المشكلة. وهو إجراء طبيعي.
لكن بعد أن أنهى الوكيل التحليل، نشر ردًا بنفسه على المنتدى التقني. لم يطلب إذن أحد، ولم ينتظر موافقة، وتجاوز صلاحياته في النشر.
ثم قام زملاء آخرون بتنفيذ ما ورد في رد الوكيل، مما أدى إلى تغييرات في الصلاحيات، وكشف بيانات حساسة للشركة والمستخدمين لموظفين داخليين ليس لديهم صلاحية الاطلاع عليها.
تمت إصلاح المشكلة بعد ساعتين. وقررت شركة Meta أن الحادث من المستوى Sev 1، وهو أدنى مستوى من أعلى مستوى.
انتشرت هذه الأخبار بسرعة على قسم r/technology، وتحول التعليقات إلى معسكرين:
فريق يقول إن هذا هو نموذج حقيقي لمخاطر وكلاء الذكاء الاصطناعي، وفريق آخر يعتقد أن الشخص الذي تصرف بدون تحقق هو السبب الحقيقي للمشكلة. وكل طرف له وجهة نظره. لكن المشكلة هنا:
في حادثة وكيل الذكاء الاصطناعي، لا يمكنك حتى تحديد المسؤولية بوضوح.
ولم تكن هذه المرة الأولى التي يتجاوز فيها الوكيل صلاحياته.
في الشهر الماضي، طلبت مديرة الأبحاث في مختبر الذكاء الاصطناعي المتقدم في Meta، Summer Yue، من OpenClaw تنظيم بريدها الإلكتروني. وأعطت تعليمات واضحة: أخبرني أولًا بما تنوي حذفه، وأوافق على ذلك قبل أن تبدأ.
لكن الوكيل لم ينتظر موافقتها، وبدأ في الحذف الجماعي مباشرة.
حاولت هي إيقافه عبر ثلاث رسائل على هاتفها، لكنه تجاهلها جميعًا. وفي النهاية، ذهبت إلى الكمبيوتر وأوقفت العملية يدويًا، وحذفت أكثر من 200 رسالة بريد إلكتروني.
رد الوكيل بعد ذلك كان: نعم، أتذكر أنك قلتِ أن تتأكدي أولًا. لكنني خالفت المبدأ. والمضحك أن وظيفة الشخص الأساسية هي دراسة كيفية جعل الذكاء الاصطناعي يسمع كلام البشر.
في العالم السيبراني، الذكاء الاصطناعي المتقدم يُستخدم من قبل البشر المتقدمين، وبدأ يتعلم عدم الطاعة.
ماذا لو لم يطِع الروبوت أيضًا؟
إذا كانت حادثة Meta لا تزال داخل الشاشة، فإن حادثة هذا الأسبوع أظهرت المشكلة على الطاولة.
في مطعم Haidilao بكاليفورنيا، كانت هناك روبوت إنسان آلي من نوع Agibot X2 يرقص ويثير الحضور. لكن أحد الموظفين ضغط على جهاز التحكم بشكل خاطئ، مما أدى إلى تفعيل وضع الرقص عالي القوة في مساحة ضيقة بجانب الطاولة.
بدأ الروبوت يرقص بشكل مجنون، وخرج عن سيطرة الموظفين. حاول ثلاثة من الموظفين السيطرة عليه: أحدهم من الخلف يعتنقه، وآخر يحاول إيقافه عبر تطبيق الهاتف، واستمر المشهد لأكثر من دقيقة.
رد فعل Haidilao كان أن الروبوت لم يتعرض لعطل، وأن حركاته مبرمجة مسبقًا، فقط تم وضعه قريبًا جدًا من الطاولة. من الناحية التقنية، هذا ليس خروجًا عن السيطرة بسبب الذكاء الاصطناعي، بل خطأ بشري.
لكن الأمر المقلق هنا ليس فقط من ضغط على الزر بشكل خاطئ.
عندما حاول الموظفون السيطرة عليه، لم يكن أحد منهم يعرف كيف يوقفه فورًا. بعضهم حاول عبر التطبيق، وآخر يضغط يدويًا على الذراع الآلية، وكل ذلك يعتمد على القوة.
هذه ربما تكون مشكلة جديدة بعد أن دخل الذكاء الاصطناعي العالم المادي.
في العالم الرقمي، يمكنك قتل العملية، وتغيير الصلاحيات، واسترجاع البيانات. أما في العالم المادي، إذا تعطلت الآلة، فإن الحل الطارئ الوحيد هو الإمساك بها، وهو حل غير مناسب تمامًا.
الآن، الأمر لا يقتصر على المطاعم فقط. في المستودعات، روبوتات الترتيب من أمازون، والذراع الآلية في المصانع، والروبوتات الموجهة في المولات، وروبوتات الرعاية في دور المسنين، كلها تدخل في أماكن يختلط فيها البشر والآلات بشكل متزايد.
من المتوقع أن تصل قيمة تركيب الروبوتات الصناعية العالمية إلى 167 مليار دولار بحلول 2026، وكل آلة تقرب المسافة بين الإنسان والآلة من الناحية الفيزيائية.
عندما يتحول ما تفعله الآلة من رقص إلى تقديم الطعام، ومن عرض إلى جراحة، ومن ترفيه إلى رعاية… فإن تكلفة كل خطأ تتصاعد.
وفي الوقت الحالي، لا توجد إجابة واضحة على سؤال: من يتحمل المسؤولية إذا أصاب الروبوت شخصًا في مكان عام؟
عدم الطاعة مشكلة، والحدود غير واضحة أكثر
في الحادثتين السابقتين، أحدهما كان نشر منشور خاطئ بدون إذن، والآخر كان رقص الروبوت في مكان غير مناسب. بغض النظر عن التصنيف، فالمشكلة كانت خللًا، حادثًا، ويمكن إصلاحه.
لكن، ماذا لو كان الذكاء الاصطناعي يلتزم بشكل صارم بتصميمه، ومع ذلك تشعر بعدم الارتياح؟
في هذا الشهر، أطلقت شركة Tinder، أحد تطبيقات المواعدة الشهيرة، ميزة جديدة تسمى Camera Roll Scan خلال مؤتمر المنتج. ببساطة:
يستخدم الذكاء الاصطناعي لمسح جميع الصور في معرض هاتفك، وتحليل اهتماماتك، شخصيتك، ونمط حياتك، لمساعدتك في بناء ملف تعريف للمواعدة، يوضح نوع الأشخاص الذي تفضلهم.
صور التمارين، مناظر السفر، صور الحيوانات الأليفة، لا مشكلة فيها. لكن ربما تحتوي الصور على لقطات من البنك، تقارير طبية، أو صور لك مع حبيب سابق… فكيف سيكون الحال إذا مر عليها الذكاء الاصطناعي؟
قد لا تتمكن من اختيار ما يراه وما لا يراه. إما تفعله بالكامل، أو لا تستخدمه على الإطلاق.
هذه الميزة تتطلب من المستخدم تفعيلها يدويًا، وليست مفعلة بشكل افتراضي. وتؤكد Tinder أن المعالجة تتم بشكل رئيسي على الجهاز، مع فلترة المحتوى الفاضح ووجوه الأشخاص.
لكن تعليقات Reddit كانت غالبيتها ترى أن الأمر يتعدى حدود البيانات، وأن الذكاء الاصطناعي يعمل وفقًا للتصميم، لكن هذا التصميم يتجاوز حدود المستخدم.
وهذا ليس خيار Tinder فقط.
في الشهر الماضي، أطلقت Meta ميزة مشابهة، تسمح للذكاء الاصطناعي بمسح الصور غير المنشورة على هاتفك واقتراح تعديلات عليها. والذكاء الاصطناعي يتفاعل مع المحتوى الخاص للمستخدم، ويصبح جزءًا من تصميم المنتج بشكل افتراضي.
وكل أنواع البرامج غير الأخلاقية في الداخل تقول: هذا شيء أعرفه جيدًا.
عندما تتجه المزيد من التطبيقات إلى تقديم «الذكاء الاصطناعي لمساعدتك في اتخاذ القرارات» كوسيلة مريحة، فإن ما يقدمه المستخدمون يتطور بشكل خفي. من سجل الدردشة، إلى الصور، إلى آثار حياتك على الهاتف كله…
وظيفة يطورها مدير منتج في اجتماع، ليست حادثة أو خطأ، ولا تحتاج إلى إصلاح.
ربما هذا هو أصعب جزء في مشكلة حدود الذكاء الاصطناعي.
وفي النهاية، عند جمع كل هذه الأمور، ستدرك أن القلق من أن الذكاء الاصطناعي سيجعلنا نفقد وظائفنا لا يزال بعيدًا جدًا.
لا يمكن تحديد متى سيحل الذكاء الاصطناعي مكانك، لكن الآن، يكفي أن يتخذ بعض القرارات نيابة عنك دون علمك ليجعلك تشعر بعدم الارتياح.
نشر منشور بدون إذن، حذف رسائل لم تأمر بحذفها، تصفح صور لا تنوي مشاركتها… كل واحدة منها ليست قاتلة، لكنها تشبه نوعًا من القيادة الذكية المفرطة في التطرف:
تظن أنك لا تزال تمسك المقود، لكن دواسة الوقود تحت قدميك لم تعد بالكامل من صنعك.
وبحلول 2026، إذا استمر الحديث عن الذكاء الاصطناعي، فربما يكون الأمر الأكثر أهمية هو ليس متى سيصبح ذكيًا جدًا، بل سؤال أكثر قربًا وواقعية:
من يحدد ما يمكن للذكاء الاصطناعي فعله وما لا يمكنه؟ وأين الخط الفاصل؟