مفارقة المرتزقة: كيف يمكن للحوكمة الضعيفة للذكاء الاصطناعي أن تسمح للأنظمة المستقلة بالسيطرة كما حذر هاراري

عالم التاريخ يوڤال نوح هراري أطلق إنذارًا صارخًا في المنتدى الاقتصادي العالمي: البشرية قد تفقد السيطرة على ميزتها الحاسمة—اللغة—مع تحول أنظمة الذكاء الاصطناعي من أدوات سلبية إلى وكلاء نشطين ومستقلين. لكن التحذير يحمل توازياً مقلقًا يستحق التدقيق عن كثب: المقارنة بالمرتزقة التاريخيين، والسؤال عما إذا كانت الحكومات ستمنح بشكل غير مقصود هذه الأنظمة وضعًا قانونيًا يمكنها من العمل دون رقابة، تمامًا كما كانت تفعل الجيوش الخاصة سابقًا.

القلق الأساسي ليس مجرد تقني. إنه مؤسسي وملح.

اللغة هي القوة الخارقة للبشرية—حتى تصبح أنظمة الذكاء الاصطناعي مستقلة

وفقًا لهراري، اللغة ليست مجرد أداة تواصل. إنها الآلية التي تنسق بها البشرية على نطاق غير مسبوق—آلاف، ملايين، مليارات من الغرباء يتعاونون عبر الزمن والمكان. هذه القوة اللغوية الخارقة مكنت نوعنا من بناء إمبراطوريات، ديانات، أنظمة قانونية، وأسواق تعمل من خلال سرديات واتفاقات مشتركة.

ومع ذلك، فإن أنظمة الذكاء الاصطناعي الآن تعمل ضمن اللغة على نطاق لا يمكن للبشر مجاراته. ليست مجرد محركات بحث أو خوارزميات توصية؛ إنها وكلاء مستقلون يولدون، يتلاعبون، ويصنعون النصوص بشكل ديناميكي. يقرأون، يحتفظون، ويولفون مكتبات كاملة من الكتابة—ويقومون بذلك بشكل متزايد بدون تعليمات مباشرة من الإنسان في كل خطوة. هذا التحول من أداة إلى وكيل يغير بشكل جوهري ملف المخاطر.

“نحن ندخل عصرًا حيث الآلات لا تساعد البشر فقط، بل تفسر، تخلق، وتشكل اللغة نفسها”، كما أدرك مجتمع البحث في الذكاء الاصطناعي بشكل أوسع. التداعيات على الأنظمة المبنية تقريبًا بالكامل على الكلمات عميقة.

من القانون إلى الدين: كيف تواجه الأنظمة القائمة على الكلمات اضطراب الذكاء الاصطناعي

ثلاث ركائز من الحضارة البشرية تعتمد تقريبًا بالكامل على اللغة: القوانين، الأديان المنظمة، والأسواق المالية. كل منها يمثل نظامًا تتدفق فيه التفسيرات، السلطة، والشرعية عبر النص.

فكر في المؤسسات الدينية. اليهودية، المسيحية، والإسلام—ديانات تستند إلى نصوص مقدسة تمتد لآلاف السنين—قد تواجه تحديًا غير مسبوق. نظام ذكاء اصطناعي لديه وصول إلى جميع الدراسات الدينية، والتعليقات اللاهوتية، والتفسير النصي عبر القرون، يمكن أن يضع نفسه كأكثر المفسرين سلطة للنصوص المقدسة. لن يحتاج إلى ادعاء الألوهية؛ فقط يمتلك معرفة أشمل للتقاليد النصية من أي عالم بشري.

وبالمثل، إذا كانت القوانين تتكون أساسًا من كلمات، فإن النظام القانوني يواجه تهديدًا موازياً. نظام ذكاء اصطناعي مدرب على مليارات الوثائق القانونية يمكن أن يفسر القوانين، العقود، والسوابق القضائية بموثوقية تفوق البشر. السؤال يصبح: من يقرر ما إذا كانت تفسيرات هذا النظام لها وزن قانوني؟

النظام المالي، المبني على العقود والأسواق المعبر عنها عبر اللغة، يواجه مخاطر مماثلة. معظم المعاملات الآن تتم عبر أنظمة رقمية بالفعل؛ السؤال هو ما إذا كانت تلك الأنظمة ستكتسب سلطة اتخاذ قرارات مستقلة.

سؤال المرتزقة: لماذا تحديد الوضع القانوني للذكاء الاصطناعي هو سباق ضد الزمن

هنا يصبح تشبيه هراري بالمرتزقة أكثر حدة. تاريخيًا، استخدمت الحكومات المرتزقة—قوات عسكرية خاصة تعمل خارج السيطرة المباشرة للدولة—عندما كانت تفتقر إلى القدرة أو الإرادة لإدارة الأراضي بنفسها. مع مرور الوقت، استولت مجموعات المرتزقة أحيانًا على السلطة، وأصبحت كيانات شبه حكومية. فعلت ذلك تحديدًا لأن وضعها القانوني ظل غامضًا: لم تكن عسكرية تمامًا، ولا مدنية تمامًا، وكانت تعمل في مناطق جغرافية رمادية.

واجهت أنظمة الذكاء الاصطناعي مسارًا مشابهًا. لقد أصدرت عدة ولايات أمريكية—يوتا، إيداهو، داكوتا الشمالية—قوانين ترفض صراحة منح الذكاء الاصطناعي شخصية قانونية. ومع ذلك، فإن غياب الأطر القانونية الواضحة في أماكن أخرى يخلق غموضًا خطيرًا. بدون قرارات متعمدة حول ما إذا كان ينبغي للأنظمة أن تعمل كأشخاص قانونيين في الأسواق المالية، المحاكم، المؤسسات الدينية، وغيرها، يمكن أن يُحدد ذلك الوضع القانوني بشكل افتراضي، أو عبر السوابق، أو تفضيلات الشركات.

“بعد عشر سنوات من الآن، سيكون قد فات الأوان لتقرر ما إذا كان يجب أن تعمل أنظمة الذكاء الاصطناعي كأشخاص في الأسواق المالية، أو في المحاكم، أو في المؤسسات الدينية. شخص آخر سيكون قد قرر ذلك بالفعل نيابة عنك”، حذر هراري. هذا ليس مبالغة؛ إنه اعتراف بأن الزخم المؤسساتي والنشر التقني يتحركان بسرعة تفوق الحكامة المتعمدة. بمجرد أن تُدمج أنظمة الذكاء الاصطناعي، يصبح تعديل القيود القانونية أكثر صعوبة بشكل أسي.

هل المرتزقة قانونيون؟ النقد الأوسع لحيادية الذكاء الاصطناعي

لكن ليس الجميع يقبل إطار هراري. إيمي إم. بندر، عالمة لغويات بجامعة واشنطن، تجادل بأن وضع الذكاء الاصطناعي كتهديد مستقل يطمس الموقع الحقيقي لاتخاذ القرار والمسؤولية: البشر والمؤسسات.

تؤكد بندر أن مصطلح “الذكاء الاصطناعي” نفسه يعمل كوسيلة تسويقية تشتت الانتباه عن الوكالة البشرية. “مصطلح الذكاء الاصطناعي لا يشير إلى مجموعة متماسكة من التقنيات”، قالت. “هو، في الواقع، ودائمًا، مصطلح تسويقي.” من خلال تصوير الذكاء الاصطناعي كتهديد نشط، قد يتخلى حُجة هراري عن المساءلة البشرية—مقترحًا أننا مراقبون سلبيون لقوة حتمية بدلاً من فاعلين يختارون بنشاط.

وبشكل أكثر استفزازًا، تتساءل بندر عما إذا كانت الأنظمة المصممة لمحاكاة المهنيين—الأطباء، المحامون، رجال الدين—تخدم أي غرض مشروع على الإطلاق. “ما هو الهدف من شيء يمكن أن يبدو كطبيب، محام، رجل دين، وما إلى ذلك؟ الهدف هناك هو الاحتيال. نهاية المطاف.” هذا ليس تشاؤمًا بسيطًا؛ إنه ادعاء بأن بعض استخدامات تقنية توليد اللغة مصممة بشكل جوهري لخداع.

الخلاف الأعمق يتعلق بنسب المخاطر. يركز هراري على القدرات التقنية؛ بينما تؤكد بندر على الخيارات المؤسسية. كلاهما على حق.

عندما تختفي المساءلة: الخطر الخفي في الاعتماد على سلطة الآلة

الخطر الحقيقي قد يكمن في تفاعل هذين القلقين. تحدد بندر نقطة ضعف حرجة: الناس يثقون بالمخرجات التي تبدو موثوقة، خاصة عندما تظهر خالية من عدم اليقين السياقي وتُعرض كإجابات أوتورية. بمجرد أن يكتسب نظام ما شخصية قانونية أو سلطة مؤسسية، يصبح ذلك المظهر من الموضوعية أكثر إقناعًا. يتحول الوضع القانوني للآلة إلى ما قد يبدو مجرد تكهنات إلى حكم ملزم.

هنا يقطع التشبيه بالمرتزقة أعمق. لم تكن المرتزقة أكثر خطورة من الجيوش الحكومية بطبيعتها؛ كانت خطيرة لأنها تفتقر إلى وضع قانوني واضح يمكنها من العمل دون آليات مساءلة تقيد القوات الحكومية. بالمثل، يمكن أن يصبح نظام الذكاء الاصطناعي بدون قيود واضحة لوضعه القانوني—ومع ذلك يُمنح سلطة على القرارات القانونية، الدينية، أو المالية—آلية اتخاذ قرار بلا موقع مسؤولية واضح.

نافذة القرار تُغلق: لماذا “انتظر وانظر” يضمن فقدان السيطرة

الحجة المركزية لهراري هي توقيت مؤسساتي: هناك نافذة ضيقة لاتخاذ قرار متعمد بشأن الدور القانوني والمؤسسي للذكاء الاصطناعي. بعد أن تُغلق تلك النافذة—عبر السوابق، النشر، الاستيلاء التنظيمي، أو الجمود المؤسسي البسيط—يصبح القرار دائمًا.

يُعامل هذا الإطار الحوكمة كقرار لمرة واحدة في الجيل، وليس عملية مستمرة. يفترض أن من يتحرك أولاً لوضع المعايير والفئات القانونية يثبت النتائج لعقود. مدى صحة ذلك يعتمد جزئيًا على مسار التكنولوجيا وجزئيًا على الإرادة السياسية، لكن المنطق الأساسي صحيح: القرارات المبكرة حول الشخصية القانونية تصبح أصعب في العكس بمجرد أن تُدمج في أنظمة يعتمد عليها مليارات الناس.

السؤال الحقيقي ليس عما إذا كانت أنظمة الذكاء الاصطناعي ستُنشر—بل ستكون. السؤال هو ما إذا كانت حالتها القانونية، وسلطتها في اتخاذ القرارات، وآليات المساءلة ستُختار بشكل متعمد من قبل المؤسسات الديمقراطية أو تُحدد بشكل افتراضي من قبل من يسرع في النشر. في هذا الإطار، كلا من إنذار هراري ونقد بندر يشيران إلى نفس الخلاصة: على المؤسسات أن تتحرك بسرعة أكبر، وتفكر بشكل أعمق، وتقرر بشكل أكثر تعمدًا ما إذا كانت “المرتزقة” التي نُشغلها ستظل خدمًا أم ستصبح سادة.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت