خلال معرض CES 2026، أعلنت شركة نفيديا (NVIDIA) رسميًا عن نظام بيئي كامل يُدعى Alpamayo يتكون من نماذج ذكاء اصطناعي مفتوحة المصدر، وأدوات محاكاة، وبيانات قيادة حقيقية، بهدف تسريع تطوير تقنية القيادة الذاتية ذات القدرة على الاستنتاج. يركز هذا النظام على أصعب الحالات الطويلة الذيل في القيادة الذاتية، وهي تلك الحالات النادرة والمعقدة وقليلة الحدوث في البيانات السابقة، ويأمل أن يجعل المركبات لا تكتفي بالرؤية فحسب، بل تفهم الحالة، وتستنتج الأسباب، وتوضح بوضوح سبب اتخاذها قرارات القيادة هذه.
ظهور النظام البيئي المفتوح المصدر Alpamayo، وإعلان ثلاثة ركائز رئيسية
في معرض CES، كشف الرئيس التنفيذي لنفيديا ( Jensen Huang) عن الهيكل الكامل لعائلة Alpamayo، والذي يشمل ثلاثة ركائز رئيسية:
نموذج VLA الذي يتضمن “عملية تفكير”
نظام محاكاة قيادة ذاتي مفتوح المصدر وواقعي بشكل كامل
قاعدة بيانات قيادة حقيقية واسعة النطاق وعبر المناطق
ذكر Huang أن هذا التصميم يهدف إلى التعامل مع التحديات الأمنية والعديد من التحديات الأخرى التي تواجه القيادة الذاتية في العالم الحقيقي عند مواجهة حالات غير متوقعة.
(ملاحظة: نموذج VLA، النص الكامل هو Vision-Language-Action، وهو بنية نموذج ذكاء اصطناعي يدمج بين الرؤية، والفهم اللغوي، واتخاذ الإجراءات. )
أكبر تحدي في القيادة الذاتية، الحالات الطويلة الذيل لا تزال عتبة الأمان
أشار Huang إلى أن أنظمة القيادة الذاتية يجب أن تعمل تحت ظروف طرق متنوعة للغاية، والأصعب غالبًا ليست الحالات اليومية، بل الحالات النادرة ذات المخاطر العالية، مثل الحوادث المفاجئة، والسلوكيات المرورية غير التقليدية، أو العوامل البيئية الخاصة.
غالبًا ما تفصل البنى التقليدية للقيادة الذاتية بين “الإحساس” و"التخطيط"، وهذه الطريقة تكون محدودة في التوسع عند مواجهة حالات غير معروفة أو جديدة. على الرغم من التقدم في التعلم من النهاية إلى النهاية في السنوات الأخيرة، يعتقد Huang أنه لتجاوز مشكلة الحالات الطويلة الذيل، يجب أن يمتلك النظام “قدرة على الاستنتاج السببي”، بحيث يفهم علاقات الأحداث، وليس فقط تطبيق أنماط موجودة مسبقًا.
مفهوم Alpamayo، لجعل السيارة تفكر خطوة بخطوة
اعتمدت عائلة Alpamayo مفهوم سلسلة التفكير (Chain-of-Thought)، لبناء نموذج VLA يمتلك القدرة على الاستنتاج، بحيث يمكن لنظام القيادة الذاتية عند مواجهة حالات جديدة أو نادرة أن يستنتج منطق التصرف تدريجيًا. فيما يلي القدرات الرئيسية الثلاثة لـ Alpamayo:
الإحساس البصري: فهم الطرق والبيئة المحيطة.
فهم اللغة: استيعاب السياق والمعنى.
توليد الإجراءات: اتخاذ قرارات القيادة الفعلية.
أكد Huang أن هذا التصميم لا يعزز فقط قدرات القيادة، بل يزيد أيضًا من قابلية تفسير القرارات، مما يساعد على بناء ثقة في أمان القيادة الذاتية، ويستند إلى نظام الأمان Halo الخاص بنفيديا.
الذكاء الاصطناعي المادي يمر بتحول رئيسي، وسيارات الأجرة الذاتية ستكون المستفيد الأول
قال Huang بعد ذلك إن الذكاء الاصطناعي المادي يدخل نقطة تحول رئيسية، حيث يبدأ الآلات في فهم، واستنتاج، واتخاذ إجراءات في العالم الحقيقي، تمامًا كما غير ChatGPT عالم الذكاء الاصطناعي الرقمي، وستكون سيارات الأجرة الذاتية من أوائل التطبيقات المستفيدة.
وأكد أن Alpamayo يمكن أن يجعل المركبات تسير بأمان في بيئات معقدة، وتوضيح أسباب قراراتها، وهو أساس مهم لتحقيق التوسع في القيادة الذاتية.
ثلاث ركائز رئيسية في مكان واحد، لبناء نظام بيئي مفتوح كامل
حددت نفيديا Alpamayo كـ “نموذج تدريسي”، وليس لنشره مباشرة على المركبات، بل كأساس لتدريب، وتعديل، وتقطير نماذج القيادة على المركبات الأخرى.
وتشمل عملية تشغيل Alpamayo من البيانات، ونماذج الاستنتاج، وقرارات القيادة، والمحاكاة، والتحسين المستمر.
(ملاحظة: التقطير هنا يعني استخدام قدرات Alpamayo في الاستنتاج لإنتاج نماذج قيادة ذاتية يمكن تشغيلها على المركبات بشكل فوري، وتقترب من مستوى خبرة السائقين المحترفين. )
Alpamayo 1: أول نموذج قيادة ذاتي من نوع VLA يمتلك سلسلة تفكير
يحتوي Alpamayo 1 على 100 مليار معلمة، ويستخدم الفيديو كمدخل، ويخرج مسار القيادة وعمليات الاستنتاج الكاملة، مع فتح وزن النموذج وبرمجيات الاستنتاج. متاح الآن على منصة Hugging Face، للاستخدام في البحث والتطوير. ستتوسع الإصدارات المستقبلية في حجم المعلمات، وعمق الاستنتاج، وخيارات الاستخدام التجاري.
(ملاحظة: يُعرف Hugging Face بأنه “Github” في عالم الذكاء الاصطناعي، وأكبر نقطة تميزه هو كونه مركز توزيع النماذج المفتوحة المصدر، ويجمع العديد من النماذج ومجموعات البيانات. )
AlpaSim: منصة محاكاة القيادة الذاتية مفتوحة المصدر بالكامل
تم إصدار AlpaSim على GitHub، ويدعم نمذجة حساسات واقعية عالية الجودة، ويمكن ضبط سلوك المرور، واختبار الحلقة المغلقة، ويستخدم أيضًا للتحقق السريع وتحسين الاستراتيجيات.
مجموعات البيانات المفتوحة للذكاء الاصطناعي المادي: قاعدة بيانات قيادة حقيقية واسعة النطاق
تحتوي مجموعات البيانات على أكثر من 1700 ساعة من بيانات القيادة، وتغطي مناطق جغرافية متعددة وظروف بيئية متنوعة، مع التركيز على الحالات النادرة والمعقدة، ومتاحة أيضًا على Hugging Face للتنزيل.
ذكر Huang أن الجمع بين هذه الثلاثة يمكن أن يشكل دورة تطوير ذاتية التعزيز، ويسرع نضوج تقنية القيادة الاستنتاجية.
تصريحات من شركات السيارات والصناعة تدعم، وتستهدف القيادة الذاتية من المستوى 4
أعربت العديد من شركات السيارات والمؤسسات البحثية عن اهتمامها بـ Alpamayo، بما في ذلك Lucid، JLR، Uber، و Berkeley DeepDrive. وأكد الجميع أن الذكاء الاصطناعي القادر على الاستنتاج، والبيئة المحاكاة المفتوحة، والبيانات عالية الجودة، ستكون عوامل حاسمة في دفع القيادة الذاتية من المستوى 4.
(ملاحظة: المستوى 1–2 هو القيادة المساعدة، والمستوى 3 هو المرحلة الانتقالية، والمستوى 4 هو بداية عدم الحاجة لسائق بشري. )
تكامل لاحق مع أنظمة نفيديا الأخرى، لدعم النشر التجاري
بالإضافة إلى Alpamayo، يمكن للمطورين استخدام منصات نفيديا الأخرى، مثل Cosmos و Omniverse، ودمج النماذج ضمن بنية DRIVE Hyperion، مع منصة الحوسبة DRIVE AGX Thor.
ذكرت نفيديا أن عملية التطوير يمكن أن تبدأ بالتحقق من الأداء في بيئة محاكاة، ثم تنتقل إلى النشر التجاري الفعلي، مع التركيز على السلامة وقابلية التوسع.
(قال Huang في CES أن عام 2026 سيكون عام الإنتاج الشامل لـ Vera Rubin، وإطلاق السيارات ذاتية القيادة بالذكاء الاصطناعي في الربع الأول، مع عمليات التصنيع الرئيسية من TSMC)
هذه المقالة، نظام Alpamayo البيئي من نفيديا يظهر لأول مرة في أخبار السلسلة ABMedia، بعنوان: “دع الذكاء الاصطناعي يقود السيارات ذاتيًا ويشرح قراراته”.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
إيكو سيستم Alpamayo من نيفيديا: تمكين السيارات ذاتية القيادة المدعومة بالذكاء الاصطناعي من القدرة على الاستنتاج، بالإضافة إلى شرح أسباب القرارات
خلال معرض CES 2026، أعلنت شركة نفيديا (NVIDIA) رسميًا عن نظام بيئي كامل يُدعى Alpamayo يتكون من نماذج ذكاء اصطناعي مفتوحة المصدر، وأدوات محاكاة، وبيانات قيادة حقيقية، بهدف تسريع تطوير تقنية القيادة الذاتية ذات القدرة على الاستنتاج. يركز هذا النظام على أصعب الحالات الطويلة الذيل في القيادة الذاتية، وهي تلك الحالات النادرة والمعقدة وقليلة الحدوث في البيانات السابقة، ويأمل أن يجعل المركبات لا تكتفي بالرؤية فحسب، بل تفهم الحالة، وتستنتج الأسباب، وتوضح بوضوح سبب اتخاذها قرارات القيادة هذه.
ظهور النظام البيئي المفتوح المصدر Alpamayo، وإعلان ثلاثة ركائز رئيسية
في معرض CES، كشف الرئيس التنفيذي لنفيديا ( Jensen Huang) عن الهيكل الكامل لعائلة Alpamayo، والذي يشمل ثلاثة ركائز رئيسية:
نموذج VLA الذي يتضمن “عملية تفكير”
نظام محاكاة قيادة ذاتي مفتوح المصدر وواقعي بشكل كامل
قاعدة بيانات قيادة حقيقية واسعة النطاق وعبر المناطق
ذكر Huang أن هذا التصميم يهدف إلى التعامل مع التحديات الأمنية والعديد من التحديات الأخرى التي تواجه القيادة الذاتية في العالم الحقيقي عند مواجهة حالات غير متوقعة.
(ملاحظة: نموذج VLA، النص الكامل هو Vision-Language-Action، وهو بنية نموذج ذكاء اصطناعي يدمج بين الرؤية، والفهم اللغوي، واتخاذ الإجراءات. )
أكبر تحدي في القيادة الذاتية، الحالات الطويلة الذيل لا تزال عتبة الأمان
أشار Huang إلى أن أنظمة القيادة الذاتية يجب أن تعمل تحت ظروف طرق متنوعة للغاية، والأصعب غالبًا ليست الحالات اليومية، بل الحالات النادرة ذات المخاطر العالية، مثل الحوادث المفاجئة، والسلوكيات المرورية غير التقليدية، أو العوامل البيئية الخاصة.
غالبًا ما تفصل البنى التقليدية للقيادة الذاتية بين “الإحساس” و"التخطيط"، وهذه الطريقة تكون محدودة في التوسع عند مواجهة حالات غير معروفة أو جديدة. على الرغم من التقدم في التعلم من النهاية إلى النهاية في السنوات الأخيرة، يعتقد Huang أنه لتجاوز مشكلة الحالات الطويلة الذيل، يجب أن يمتلك النظام “قدرة على الاستنتاج السببي”، بحيث يفهم علاقات الأحداث، وليس فقط تطبيق أنماط موجودة مسبقًا.
مفهوم Alpamayo، لجعل السيارة تفكر خطوة بخطوة
اعتمدت عائلة Alpamayo مفهوم سلسلة التفكير (Chain-of-Thought)، لبناء نموذج VLA يمتلك القدرة على الاستنتاج، بحيث يمكن لنظام القيادة الذاتية عند مواجهة حالات جديدة أو نادرة أن يستنتج منطق التصرف تدريجيًا. فيما يلي القدرات الرئيسية الثلاثة لـ Alpamayo:
الإحساس البصري: فهم الطرق والبيئة المحيطة.
فهم اللغة: استيعاب السياق والمعنى.
توليد الإجراءات: اتخاذ قرارات القيادة الفعلية.
أكد Huang أن هذا التصميم لا يعزز فقط قدرات القيادة، بل يزيد أيضًا من قابلية تفسير القرارات، مما يساعد على بناء ثقة في أمان القيادة الذاتية، ويستند إلى نظام الأمان Halo الخاص بنفيديا.
الذكاء الاصطناعي المادي يمر بتحول رئيسي، وسيارات الأجرة الذاتية ستكون المستفيد الأول
قال Huang بعد ذلك إن الذكاء الاصطناعي المادي يدخل نقطة تحول رئيسية، حيث يبدأ الآلات في فهم، واستنتاج، واتخاذ إجراءات في العالم الحقيقي، تمامًا كما غير ChatGPT عالم الذكاء الاصطناعي الرقمي، وستكون سيارات الأجرة الذاتية من أوائل التطبيقات المستفيدة.
وأكد أن Alpamayo يمكن أن يجعل المركبات تسير بأمان في بيئات معقدة، وتوضيح أسباب قراراتها، وهو أساس مهم لتحقيق التوسع في القيادة الذاتية.
ثلاث ركائز رئيسية في مكان واحد، لبناء نظام بيئي مفتوح كامل
حددت نفيديا Alpamayo كـ “نموذج تدريسي”، وليس لنشره مباشرة على المركبات، بل كأساس لتدريب، وتعديل، وتقطير نماذج القيادة على المركبات الأخرى.
وتشمل عملية تشغيل Alpamayo من البيانات، ونماذج الاستنتاج، وقرارات القيادة، والمحاكاة، والتحسين المستمر.
(ملاحظة: التقطير هنا يعني استخدام قدرات Alpamayo في الاستنتاج لإنتاج نماذج قيادة ذاتية يمكن تشغيلها على المركبات بشكل فوري، وتقترب من مستوى خبرة السائقين المحترفين. )
يحتوي Alpamayo 1 على 100 مليار معلمة، ويستخدم الفيديو كمدخل، ويخرج مسار القيادة وعمليات الاستنتاج الكاملة، مع فتح وزن النموذج وبرمجيات الاستنتاج. متاح الآن على منصة Hugging Face، للاستخدام في البحث والتطوير. ستتوسع الإصدارات المستقبلية في حجم المعلمات، وعمق الاستنتاج، وخيارات الاستخدام التجاري.
(ملاحظة: يُعرف Hugging Face بأنه “Github” في عالم الذكاء الاصطناعي، وأكبر نقطة تميزه هو كونه مركز توزيع النماذج المفتوحة المصدر، ويجمع العديد من النماذج ومجموعات البيانات. )
تم إصدار AlpaSim على GitHub، ويدعم نمذجة حساسات واقعية عالية الجودة، ويمكن ضبط سلوك المرور، واختبار الحلقة المغلقة، ويستخدم أيضًا للتحقق السريع وتحسين الاستراتيجيات.
تحتوي مجموعات البيانات على أكثر من 1700 ساعة من بيانات القيادة، وتغطي مناطق جغرافية متعددة وظروف بيئية متنوعة، مع التركيز على الحالات النادرة والمعقدة، ومتاحة أيضًا على Hugging Face للتنزيل.
ذكر Huang أن الجمع بين هذه الثلاثة يمكن أن يشكل دورة تطوير ذاتية التعزيز، ويسرع نضوج تقنية القيادة الاستنتاجية.
تصريحات من شركات السيارات والصناعة تدعم، وتستهدف القيادة الذاتية من المستوى 4
أعربت العديد من شركات السيارات والمؤسسات البحثية عن اهتمامها بـ Alpamayo، بما في ذلك Lucid، JLR، Uber، و Berkeley DeepDrive. وأكد الجميع أن الذكاء الاصطناعي القادر على الاستنتاج، والبيئة المحاكاة المفتوحة، والبيانات عالية الجودة، ستكون عوامل حاسمة في دفع القيادة الذاتية من المستوى 4.
(ملاحظة: المستوى 1–2 هو القيادة المساعدة، والمستوى 3 هو المرحلة الانتقالية، والمستوى 4 هو بداية عدم الحاجة لسائق بشري. )
تكامل لاحق مع أنظمة نفيديا الأخرى، لدعم النشر التجاري
بالإضافة إلى Alpamayo، يمكن للمطورين استخدام منصات نفيديا الأخرى، مثل Cosmos و Omniverse، ودمج النماذج ضمن بنية DRIVE Hyperion، مع منصة الحوسبة DRIVE AGX Thor.
ذكرت نفيديا أن عملية التطوير يمكن أن تبدأ بالتحقق من الأداء في بيئة محاكاة، ثم تنتقل إلى النشر التجاري الفعلي، مع التركيز على السلامة وقابلية التوسع.
(قال Huang في CES أن عام 2026 سيكون عام الإنتاج الشامل لـ Vera Rubin، وإطلاق السيارات ذاتية القيادة بالذكاء الاصطناعي في الربع الأول، مع عمليات التصنيع الرئيسية من TSMC)
هذه المقالة، نظام Alpamayo البيئي من نفيديا يظهر لأول مرة في أخبار السلسلة ABMedia، بعنوان: “دع الذكاء الاصطناعي يقود السيارات ذاتيًا ويشرح قراراته”.