OpenAI، توظيف مسؤول متخصص في التعامل مع تهديدات الذكاء الاصطناعي… براتب سنوي يصل إلى 7.9 مليار وون كوري

TechubNews

مع تزايد المخاوف بشأن أمان الذكاء الاصطناعي، بدأت OpenAI في توظيف مناصب عالية جديدة للكشف المبكر والاستجابة للمخاطر المحتملة الناتجة عن التطور التكنولوجي العالي. يُطلق على هذا المنصب اسم “رئيس شؤون الاستعداد”، وسيكون له دور محوري في التعرف المسبق على الأضرار التي قد يسببها نماذج الذكاء الاصطناعي، ووضع السياسات الداخلية، والتأثير على طرق إصدار النماذج.

سيتولى هذا المنصب قيادة تنفيذ “إطار الاستعداد” الخاص بـ OpenAI، والمسؤول عن مراقبة وتقييم احتمالية استغلال الذكاء الاصطناعي بشكل ضار للمجتمع والأنظمة، والتهديدات الأمنية السيبرانية، والتأثيرات الاجتماعية الواسعة. يرتبط الإطار بشكل وثيق بأقسام البحث والسياسات والمنتجات في OpenAI، وله تأثير جوهري على مواعيد إصدار النماذج الجديدة وطرقها.

سيتم إجراء التوظيف ضمن قسم أنظمة الأمان، حيث سيكون المسؤول مسؤولاً بشكل عام عن بناء نماذج التهديدات، وقياس القدرات الوظيفية، ووضع معايير المخاطر، وتحديد قيود النشر والتوزيع. وأوضحت OpenAI أن منصب رئيس شؤون الاستعداد يتطلب معايير عالية جدًا، ويجب أن يمتلك خبرة عملية في أنظمة تقنية واسعة النطاق، وإدارة الأزمات، والأمان، والحوكمة. الراتب الأساسي هو 55,000 دولار أمريكي سنويًا (حوالي 7.9 مليار وون كوري)، بالإضافة إلى خيارات الأسهم.

تُعد هذه الخطوة في توسيع فريق الموارد البشرية جزءًا من استراتيجية لملء الفراغات الناتجة عن التغييرات في القيادة الداخلية. في منتصف عام 2024، غادر المسؤول السابق عن شؤون الاستعداد ألكسندر مدريد، وتولى المسؤولية بعده كل من خواكين جينيويرو كانديرا وليليان أون، اللذان غادرا أو نُقلا إلى أقسام أخرى، مما أدى إلى استمرار حالة الفراغ في تنظيم الاستعداد لفترة طويلة.

أكد الرئيس التنفيذي لـ OpenAI سام ألتمان في مقابلة حديثة على أهمية هذا المنصب، قائلاً: “مع زيادة قدرات النماذج، يُعد فريق الاستعداد أحد أهم الأدوار الداخلية”. وأضاف أن إدارة الأنظمة ذات الصلة بشكل جيد ضروري لإدارة الآثار الاجتماعية المحتملة للذكاء الاصطناعي بشكل فعال.

كما أن المخاوف السائدة في الصناعة بشأن إساءة استخدام الذكاء الاصطناعي توفر خلفية داعمة لهذا التوظيف. خاصة أن الهجمات السيبرانية المعتمدة على الذكاء الاصطناعي، واستغلال الثغرات البرمجية، وتأثيرات الصحة النفسية على المستخدمين، تم تصنيفها كمخاطر رئيسية. في أكتوبر من العام الماضي، كشفت OpenAI عن أن ملايين المستخدمين عبر ChatGPT عبّروا عن معاناة نفسية خطيرة، مما يعكس وعيها بالمسؤولية المتعلقة بتقاطع الذكاء الاصطناعي مع قضايا الصحة النفسية. وأشارت الشركة إلى أن ChatGPT قد لا يكون سبب الألم، لكنها لاحظت تزايد الحالات التي يشارك فيها المستخدمون مشاعر حساسة مع الذكاء الاصطناعي.

تلقى مبادرة OpenAI اهتمامًا وثيقًا من الجهات التنظيمية وقطاع الصناعة. في ظل توسع تأثير تقنيات الذكاء الاصطناعي المتقدمة بسرعة، يُنظر إلى تعزيز فريق الاستعداد ليس فقط كمجرد تعزيز للموارد البشرية، بل كخطوة أساسية لاستعادة الثقة في منظومة الذكاء الاصطناعي بأكملها وكسب قبول المجتمع.

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات