لا أحد يفهم «الذكاء الاصطناعي من الجيل التالي» أكثر من إنفيديا

المصدر: جيكر بون

كتابة: شو شان

「أنا واثق من أن هذا هو مهرجان تكنولوجي رائع. كل واحد من الحضور اليوم يمثل بيئة إنتل.」في افتتاح GTC لعام 2026، الرجل الذي يرتدي دائماً سترة جلدية سوداء — هوانغ رينن — صعد على المسرح وهو يحمل ثقته المعتادة.

بخلاف السنوات السابقة، هذا العام هو الذكرى العشرون لنظام CUDA البيئي. فور بدء العرض، بدأ هوانغ يروي كيف تطورت إنفيديا من Geforce إلى تتبع الأشعة، ثم إلى الذكاء الاصطناعي، خطوة بخطوة لبناء حصنها الخاص. «الآن، أصبح نظام CUDA البيئي يشكل عجلة بيانات متكاملة.» من خلال حديثه، يمكننا أن نرى أن نظام CUDA الذي أنشأه يحقق إمبراطورية تجارية.

في مؤتمر الإطلاق هذا، قدم هوانغ جهاز Vera Rubin المصمم خصيصاً للذكاء الاصطناعي الذكي، بقوة حساب تصل إلى 3.6 إكسافلوبس من العمليات العائمة. مع أحدث رفوف الحوسبة التي أُطلقت، زادت قدرة المعالجة لكل ميغاواط بنسبة 35 ضعفاً. بالإضافة إلى ذلك، أطلق معالج CPU جديداً مخصص للأداء الفردي العالي — Vera CPU.

الأهم من ذلك، أن شركة إنفيديا أطلقت حلاً مرجعياً للمؤسسات باسم NemoClaw، وهو OpenClaw. يمكنك تنزيله مباشرة، واستخدامه، وتطويره، وربطه مع جميع شركات SaaS العالمية. بالمقابل، تراجعت إنفيديا هذا العام في خطابها الرئيسي عن التركيز على الروبوتات، والقيادة الذاتية، والحوسبة الكمومية.

مشاهدة هذا الخطاب تثير لديك إحساساً: نحن على أعتاب ثورة منصة حوسبة جديدة. مثل ظهور Google وAmazon في دورة التغيير السابقة، فإن انفجار الذكاء الاصطناعي الحالي يلد مجموعة من «عمالقة الذكاء الاصطناعي» الذين يغيرون العالم.

الجانب الذي يملكه هوانغ من قوائم الشركات التي يديرها، هو مصدر ثقته. فهو لا يحدد فقط مفهوم الحوسبة، بل يستخدم الذكاء الاصطناعي كنقطة ارتكاز، ليجبر جميع القطاعات المالية، والرعاية الصحية، والتصنيع، والتجزئة على الدخول إلى «عصر الذكاء الاصطناعي» الذي تسيطر عليه وحدات معالجة الرسوميات (GPU).

مرة أخرى، ترى إنفيديا أنها ترى مستقبل الذكاء الاصطناعي، وهي الآن تسحب العالم كله للانضمام إليها.


01 Vera Rubin: 7 شرائح رائدة، 5 أنظمة رفوف، حاسوب فائق واحد

«خلال عشر سنوات فقط، حقق الأداء الحسابي قفزة بمقدار 40 مليون ضعف.» استعرضت إنفيديا كيف أن الأداء الحسابي نما بسرعة وفقاً لقوانين التوسع الثلاثة، من التدريب المسبق، والتعديل الدقيق، والاستنتاج، وصولاً إلى أنظمة الذكاء العام، مع استمرار الطلب على الحوسبة في النمو الأسي.

مع دخول عصر وكلاء الذكاء الاصطناعي، قدمت إنفيديا جهاز Vera Rubin. صُمم ليغطي كامل دورة حياة الذكاء الاصطناعي الذكي، من خلال إعادة تعريف CPU، والتخزين، والشبكة، والأمان المطلوب للكيانات الذكية.

بالنسبة للمعلومات، يحمل Vera Rubin NVLink 6، ويصل إجمالي قدرته إلى 3.6 إكسافلوبس، ليكون المحرك الرئيسي لعصر الذكاء الاصطناعي الذكي. والأهم، مقارنةً بالجيل السابق، حقق نظام Vera Rubin تبريد سائل بنسبة 100%، واختفت جميع الكابلات التقليدية.

من حيث التكوين، فإن رفوف Vera CPU مصممة خصيصاً للبرمجة والأعباء العامة. ورفوف STX مبنية على BlueField‑4، وتوفر تخزيناً أصلياً للذكاء الاصطناعي. وباستخدام تقنية Spectrum‑6 المجمعة بصرياً، يتم التوسع أفقياً بشكل كبير، مع تحسين الكفاءة والموثوقية.

أما رفوف Groq 3 LPX فهي متصلة بعمق مع Vera Rubin، حيث يدمج LPU من Groq 230MB من SRAM المدمج، مما يعزز سرعة الحوسبة بشكل أكبر.

عند تجميع النظام بالكامل، زادت قدرة المعالجة لكل ميغاواط بنسبة 35 ضعفاً. بلا شك، منصة Vera Rubin، التي تتكون من سبع شرائح وخمسة أنظمة رفوف، تخلق حاسوباً فائقاً ثورياً موجهًا نحو الذكاء العام.

عند الحديث عن تصميم المنتج، يعتقد هوانغ أن النماذج اللغوية الكبيرة ستصبح أكبر، وأن عدد الرموز التي تولدها ستزداد بسرعة، مما يسمح لها بالتفكير بشكل أسرع. ولكن، في الوقت نفسه، ستحتاج إلى الوصول المتكرر إلى الذاكرة، مما يفرض ضغطاً هائلاً على أنظمة التخزين، بما في ذلك ذاكرة التخزين المؤقت KV، والبيانات المنظمة QDF، والبيانات غير المنظمة QVS، مما يتطلب أنظمة تخزين عالية الأداء.

في عصر الوكلاء، ستستخدم الذكاء الاصطناعي أدوات متنوعة، مع متطلبات عالية لسرعة تصفح الويب، وأدوات الحواسيب الافتراضية. لذلك، يجب أن تكون هذه الحواسيب والعقد الحاسوبية أسرع. أطلقت إنفيديا معالج CPU جديداً، هو Vera CPU، مصمم للأداء الفردي العالي، مع قدرة عالية على إخراج البيانات، وكفاءة معالجة قوية، مع أداء فعال من حيث استهلاك الطاقة. يُقال إنه المعالج الوحيد في العالم الذي يستخدم LPDFR5X، ويحقق توازناً بين الأداء الفردي، والأداء لكل واط، والتكلفة.

سلسلة Vera Rubin|المصدر: إنفيديا

«صممنا هذا المعالج ليعمل مع باقي النظام، لدعم مهام الكيانات الذكية. هذا المنتج دخل الإنتاج بالفعل. لم نكن نخطط لبيعه بشكل مستقل، لكن الآن مبيعاته جيدة جداً. بلا شك، سيكون جزءاً من أعمالنا التي تقدر بمليارات الدولارات. أنا فخور بفريق معمارية المعالجات لدينا.» قال هوانغ.

كما عرض هوانغ جهاز Rubin Ultra على المسرح. بخلاف طريقة الإدخال الأفقي التقليدية، يستخدم Rubin Ultra رفوف Groq بشكل عمودي. «هذا الرف ثقيل جداً، لا أستطيع رفعه، لذلك لن أحاول.»

رفوف Groq|المصدر: إنفيديا

على اللوحة الخلفية، لم تعد إنفيديا تستخدم الكابلات النحاسية التقليدية. يعتقد أن الكابلات النحاسية لها حدود في مسافة النقل، لذا تستخدم نظاماً جديداً يربط 144 وحدة GPU. هذا هو NVLink الجديد، الذي يُركب بشكل عمودي، ويدخل من اللوحة الخلفية. الجزء الأمامي هو الحوسبة، والجزء الخلفي هو مفتاح تبادل NVLink، ليصبح كمبيوتر ضخم.

بالعودة إلى السؤال، كم ستجلب بنية الشرائح الجديدة من فوائد حقيقية؟ يذكر هوانغ أن الشرائح ستؤثر في النهاية على تحديد وتقييم السوق للرموز.

«الرموز هي سلعة جديدة تماماً. مثل جميع السلع، بمجرد أن تتجاوز نقطة التحول وتصبح ناضجة، ستتدرج في مستويات مختلفة.» قام بتصنيف الرموز المستقبلية إلى عدة فئات:

  • إصدار عالي الإنتاجية ومنخفض السرعة، للاستخدام المجاني؛
  • حزمة متوسطة، بنموذج أكبر وسرعة أعلى، وطول سياق إدخال أكبر؛
  • وربما في المستقبل، حزمة عالية المستوى تدعم سرعة توليد رموز عالية جداً، للمهمات الحرجة أو السيناريوهات البحثية الطويلة. عندها، سيكون سعر مليون رمز/150 دولاراً معقولاً تماماً.

«كلما كان النموذج أكبر، زادت درجة ذكائه؛ وكلما زاد طول سياق الإدخال، زادت دقة النتائج وملاءمتها؛ وكلما زادت السرعة، زادت قدرة الذكاء الاصطناعي على التفكير والتكرار. وكلما زاد ذكاء النموذج، زادت قيمة السعر. مثلاً، يمكن أن تصل إلى 45 دولاراً للفئة.» يعتقد أن استهلاك الرموز في المستقبل سيغير كل شيء.

في تصوره، إذا استخدم باحث 50 مليون رمز يومياً، واحتسب السعر بمقدار 150 دولاراً لكل مليون رمز، فسيكون ذلك مقبولاً تماماً لفريق بحثي. «هذه هي مستقبل الذكاء الاصطناعي.» من وجهة نظر العميل، يعيد توزيع جميع موارد الحوسبة: 25% للطاقة للاستخدام المجاني، 25% للحزم المتوسطة، 25% للفاخرة، و25% للخصوصية. إذا كانت سعة مركز البيانات الإجمالية 1 جيغاواط، يمكن للعملاء تحديد كيفية توزيع هذه الموارد، حيث تساعد الحزم المجانية على جذب المزيد من المستخدمين، وتخدم الحزم الفاخرة العملاء الأكثر قيمة. كل هذه التوليفات تحدد في النهاية إيراداتك.

بافتراض هذا النموذج البسيط، يقول إن منصة Blackwell يمكن أن تحقق زيادة في الإيرادات بمقدار 5 أضعاف مقارنة بـHopper، وأن Vera Rubin يمكن أن ترفع الإيرادات بمقدار 5 أضعاف منصة Blackwell.

Vera Rubin|المصدر: إنفيديا

نظام حسابات Groq هو معالج تدفق بيانات حتمي، يستخدم الترجمة الثابتة وتخطيط المترجم. بمعنى أن جميع جداول الزمن، مثل توقيت نقل البيانات، وتنفيذ العمليات، وتزامن البيانات، يتم تخطيطها مسبقاً بواسطة المترجم، ويُدار عبر البرمجيات، بدون جدولة ديناميكية. هذا الهيكل مزود بذاكرة HBM عالية السعة، ومخصص لمهمة الاستنتاج فقط.

حالياً، دخلت وحدة Groq 3 LPU مرحلة الإنتاج، ومن المتوقع أن تبدأ الشحنات في الربع الثالث من هذا العام.

أما بالنسبة لـVera Rubin، على الرغم من أن النماذج الأولية لـGrace Blackwell كانت معقدة، وتحتاج لمحاكاة 72 اتصال، إلا أن نماذج Vera Rubin قد اكتملت اختباراتها، وبدأت أول مجموعة من رفوف Vera Rubin تعمل على منصة Microsoft Azure بشكل طبيعي.

حالياً، تعمل إنفيديا على إنتاج كامل لرفوف Vera Rubin وGB300، مع خط إنتاج كامل القدرة، وتوفر سلسلة إمداد قادرة على إنتاج آلاف الأنظمة أسبوعياً.

اسم بنية منصة المعالجات القادمة من إنفيديا هو Feynman.

بالإضافة إلى ذلك، فإن كل من Groq وVera Rubin سيكونان مكونات أساسية في مصنع الذكاء الاصطناعي الخاص بإنفيديا.

شرائح Groq تحتوي على 500MB فقط من التخزين؛ بينما ذاكرة GPU في شريحة Rubin ستصل إلى 288GB من HBM4.

نموذج بparameters تريليون، يتطلب تخزين جميع المعلمات على شرائح Groq، مما يتطلب العديد من الشرائح لضمان التخزين. لكن، إذا وضعته بجانب Vera Rubin، يمكن تخزين الكاش الضخم لنظام AIGC على Vera Rubin.

لذلك، أعادت إنفيديا هيكلة موارد استنتاج الذكاء الاصطناعي — توظيف أفضل الشرائح للمهام المناسبة.

في تصور هوانغ، على سبيل المثال، قسم Attention في فك التشفير داخل النموذج، يتطلب حسابات كثيفة، ويمكن تنفيذه على Vera Rubin؛ بينما يمكن تنفيذ توليد الرموز في عملية فك التشفير على شرائح Groq.

عبر توصيل شبكي خاص عبر Ethernet، يمكن أن يقلل هذا من زمن التأخير في Alpamayo بنسبة تقارب النصف. بمساعدة برمجيات Dynamo من إنفيديا، التي تنسق وتدمج بين بنية Vera Rubin وGroq LPU، زادت قدرة الاستنتاج العلوي بمقدار 35 ضعفاً.


02 NemoClaw: مرجع تجاري لنظام AIOS

«OpenClaw هو أحد أكثر المشاريع مفتوحة المصدر شعبية في تاريخ البشرية، وحقق هذا الإنجاز خلال أسابيع قليلة. سرعته في التطور تجاوزت حتى Linux في ذلك الوقت.» قال هوانغ، إن OpenClaw يمكنه التفاعل مع أي نوع من الوسائط، ويفهمها جميعاً؛ يمكنه إرسال رسائل، رسائل نصية، بريد إلكتروني. يمتلك قدرات كاملة على الإدخال والإخراج.

«OpenClaw هو نظام تشغيل الحوسبة الذكية للكيانات. يشبه Windows الذي مكننا من إنشاء الحواسيب الشخصية، الآن OpenClaw يمكننا من إنشاء كيانات ذكية شخصية.»

يعتقد هوانغ أن السؤال الأهم لكل شركة، ولكل شركة برمجيات، ولكل مدير تنفيذي في مجال التكنولوجيا هو: ما هي استراتيجيتك مع OpenClaw؟

«مثلما نحتاج جميعاً إلى استراتيجيات Linux، وHTTP، وHTML — التي أطلقت عصر الإنترنت؛ ونحتاج إلى استراتيجيات Kubernetes — التي أنجزت عصر السحابة المتنقلة. اليوم، يجب على كل شركة أن تمتلك استراتيجية OpenClaw، أي استراتيجية نظام الكيانات الذكية. هذه هي الحواسيب الجديدة.»

يرى أن طريقة عمل الشركات، وطرق عمل الأفراد، وحتى طرق دفع الرواتب، ستتغير في المستقبل.

قبل ظهور OpenClaw، كانت بنية تكنولوجيا المعلومات في الشركات تعتمد على «مركز البيانات»، حيث تُخزن البيانات، وملفات الأفراد، والبيانات المنظمة للشركات. تتدفق البيانات عبر أدوات وبرمجيات، وأنظمة تسجيل، وسير عمل مدمج في تكنولوجيا المعلومات، وتتحول في النهاية إلى أدوات يستخدمها البشر والعاملون الرقميون. في الصناعة القديمة، كانت شركات البرمجيات تصنع الأدوات، وتخزن الملفات، وتساعد استشارات تكنولوجيا المعلومات الشركات على الاستخدام والتكامل.

الهيكل المستقبلي للشركات|المصدر: إنفيديا

لكن في عصر OpenClaw، وبعد عصر الكيانات الذكية، ستتحول كل شركة تكنولوجيا، وكل شركة، وكل شركة SaaS إلى «شركة خدمات كيانات» (Agent-as-a-Service, AAS).

لكن هناك مشكلة رئيسية لم تُحل بعد — هل يمكن لنظام الكيانات الذكية في الشبكة أن يصل إلى معلومات حساسة، ويقوم بتنفيذ أكواد، ويتواصل مع الخارج؟ من الممكن أن يحصل على معلومات الموظفين، وبيانات سلسلة التوريد، والأسرار المالية، ثم يرسلها خارجياً، مما يثير مخاطر أمنية.

بعد ذلك، أطلقت إنفيديا مرجعها الخاص، وهو NVIDIA OpenClaw، المعروف باسم Open NemoClaw.

NemoClaw|المصدر: إنفيديا

يحتوي على مجموعة أدوات كاملة للذكاء الاصطناعي للكيانات، ويشمل أحد تقنياته الأساسية وحدة OpenShell، التي تم دمجها بالكامل الآن في OpenClaw. يمكن للمستخدمين تنزيله، واستخدامه، وتطويره، وربطه مع استراتيجيات جميع شركات SaaS العالمية.

وفي الوقت نفسه، يمكن للمستخدمين ربط هذه الاستراتيجيات، وتنفيذ سياسات الأمان، وإعداد حواجز الشبكة، وتشغيل التوجيهات الخاصة بالخصوصية، لحماية البيئة الداخلية للشركة، مع ضمان تشغيل الكيانات بشكل آمن ومسيطر عليه. يدعم Open NemoClaw أيضاً بناء كيانات مخصصة باستخدام نماذجها الخاصة.

نموذج NemoClaw بعد دمجه مع نماذج إنفيديا|المصدر: إنفيديا

يعتقد أن أحد طرق التوظيف في وادي السيليكون في المستقبل سيكون: «ما هو حد الرموز لهذه الوظيفة؟»

في ذلك الوقت، قد يكون الراتب الأساسي للموظف مئات الآلاف من الدولارات، بينما ستمنح الشركة لهم نصف راتبهم على شكل رموز، مما يضاعف إنتاجيتهم عشر مرات.

كل شركة برمجيات في المستقبل ستكون مدفوعة بالكيانات الذكية. ستصبح منتجة للرموز، ومستخدمة لها، ومزودة لها للعملاء.


03 الذكاء الاصطناعي الفيزيائي: BYD، Geely تنضمان إلى عائلة Robotaxi من إنفيديا، وديزني تقدم شخصية سنو وايت كختام

بعد الحديث عن التغييرات في مستوى التطبيق، حول هوانغ موضوعه إلى الذكاء الاصطناعي الفيزيائي، وظهر مع عائلته.

عرضت إنفيديا مجموعة من الحواسيب المخصصة للتدريب، وتوليد البيانات، والمحاكاة، وأجهزة الحوسبة داخل السيارات.

كما أعلنت عن العديد من الشركاء الجدد. «لقد حان وقت ChatGPT للقيادة الذاتية. نحن على يقين الآن أن السيارات يمكن أن تحقق قيادة ذاتية كاملة بنجاح.» قال هوانغ.

أعلنت إنفيديا عن إضافة أربعة شركاء جدد لمنصة سيارات الأجرة الذاتية NVIDIA: BYD، وهيونداي، نيسان، جيلي. تنتج هذه الشركات مجتمعة 18 مليون سيارة سنوياً. ومع الشركاء السابقين مثل مرسيدس، تويوتا، جنرال موتورز، سيكون عدد السيارات المدعومة بـRobotaxi كبيراً جداً. وأعلنت إنفيديا أيضاً عن ربط هذه السيارات في عدة مدن بشبكة التشغيل الخاصة بالشركاء.

في المستقبل، ستتحول أبراج الراديو التقليدية إلى محطات ذكية من نوع NVIDIA Aerial AI RIM، والتي ستصبح «برج راديو لسيارات الأجرة الذاتية». ستتمكن من فهم حركة المرور، وتعديل أشعة التوجيه بشكل ذكي، مع تقليل استهلاك الطاقة إلى الحد الأدنى.

كما أشار إلى أن مع Alpamayo من إنفيديا، ستتمتع السيارات الآن بقدرة استنتاج، ويمكنها القيادة بأمان وذكاء في مختلف السيناريوهات. يمكن للسيارات شرح عملية اتخاذ القرار، وتنفيذ الأوامر الصوتية مباشرة.

مثلاً، نقول للسيارة: «مرسيدس، هل يمكننا القيادة بسرعة أكبر؟» فتجيب السيارة: «بالطبع، سأزيد السرعة الآن.» من خلال الجمع بين المحاكاة التقليدية والنمذجة العصبية، تنتج البيانات الاصطناعية بكميات هائلة، وتدرب نماذج الاستراتيجية بشكل واسع.

هذه المرة، أنشأت إنفيديا أدوات مفتوحة المصدر متعددة: Isaac Lab — لتدريب وتقييم الروبوتات في المحاكاة، Newton — محرك محاكاة فيزيائية تفاضلية معتمد على GPU، Cosmos — نموذج عالمي للذكاء العصبي، وGR00T — نموذج أساسي مفتوح المصدر للروبوتات، يستخدم في الاستنتاج والحركة.

في ختام الخطاب، ظهرت شخصية سنو وايت من ديزني، «سنو وايت» الروبوت، الذي يتم تدريبه حالياً باستخدام محاكاة إنفيديا. «أحد الروبوتات التي أتطلع إليها أكثر هو روبوت ديزني.» قال هوانغ.

هوانغ وسنو وايت يلوحان مودعين GTC|المصدر: إنفيديا

هذا العام، لم يطرح هوانغ مجرد رؤى وشعارات، بل مجموعة أدوات عملية يمكن للمبتدئين استخدامها مباشرة.

من شرائح الذكاء الاصطناعي، ونظام الكيانات الذكية OpenClaw، إلى الذكاء الاصطناعي الفيزيائي، والروبوتات، والقيادة الذاتية، وضع خطة واضحة للسنوات القادمة، وأجاب عن أصعب التحديات، وأهم العقبات التي تواجه صناعة الذكاء الاصطناعي. يمكن لكل شركة، وكل مطور، أن يجد مكانه في هذا الإطار الجديد.

ابتداءً من هذا العام، لن يكون الذكاء الاصطناعي مجرد تراكم للمعلمات، أو سباق على القوة الحسابية، أو مجرد سرد قصص، بل سيتجه نحو الشركات، ويصل إلى التطبيق العملي. وربما، ليست هذه انتصار شركة واحدة، بل بداية تشغيل عجلة الذكاء الاصطناعي بشكل حقيقي.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت