العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
منصة الإطلاق
كن من الأوائل في الانضمام إلى مشروع التوكن الكبير القادم
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
الحوسبة السرية هي كيف يعيد الذكاء الاصطناعي استرجاع الثقة التي فقدها بالفعل — وولماذا يجب أن تصبح المعيار الجديد
ملخص سريع
بينما تتسارع تبني الذكاء الاصطناعي على حساب الثقة العامة، يوضح أحمد شديد من شركة ORGN أن الحوسبة السرية والتنفيذ القابل للتحقق يوفران الدليل التشفيري الذي لا تستطيع سياسات الخصوصية وحدها تقديمه.
تتجه أنظمة الذكاء الاصطناعي بسرعة نحو سير العمل الحساس — كتابة الشفرات، معالجة بيانات العملاء، ودعم القرارات في قطاعات منظمة مثل المالية والرعاية الصحية. لقد خلق هذا التكامل السريع مشكلة هيكلية لم يعالجها القطاع بشكل كافٍ بعد.
التحدي هو الثقة. أظهرت دراسة أجرتها جامعة ملبورن بالتعاون مع KPMG، شملت أكثر من 48,000 شخص عبر 47 دولة، أن 66% من المستجيبين يستخدمون الذكاء الاصطناعي بانتظام، لكن أقل من نصفهم — فقط 46% — يقولون إنهم مستعدون للثقة في أنظمة الذكاء الاصطناعي. الاستخدام والثقة يسيران في اتجاهين متعاكسين، والفجوة بينهما تتسع.
بعد خاصية الخصوصية في هذه الفجوة الثقة حادة بشكل خاص. وفقًا لمؤشر الذكاء الاصطناعي لعام 2025 من ستانفورد، تراجعت الثقة العالمية في حماية شركات الذكاء الاصطناعي للبيانات الشخصية من 50% في 2023 إلى 47% في 2024، وأصبح عدد أقل من الناس يعتقدون الآن أن أنظمة الذكاء الاصطناعي غير متحيزة وخالية من التمييز مقارنة بالعام السابق. يحدث هذا الانخفاض بالتزامن مع تزايد دمج الذكاء الاصطناعي في الحياة اليومية والبيئات المهنية، مما يجعل مخاطر الثقة المفقودة أعلى بكثير.
يؤكد أحمد شديد، الرئيس التنفيذي لشركة ORGN، أول بيئة تطوير سرية في العالم، أن المرحلة القادمة من الذكاء الاصطناعي لن تُبنى على الثقة — بل على الإثبات. الحوسبة السرية والتنفيذ القابل للتحقق يجعل من الممكن إثبات كيفية معالجة البيانات بدقة، بدلاً من مجرد الوعد بأنها آمنة.
في حديثه مع MPost، شرح كيف تعالج هذه التقنيات فجوات الخصوصية والثقة التي تتركها التدابير الأمنية التقليدية في سير عمل الذكاء الاصطناعي، وما الذي يتطلبه الأمر لتصبح هذه التقنيات سائدة.
كيف تحمي شركات الذكاء الاصطناعي البيانات عادة اليوم — ولماذا لا يكفي ذلك
تعتمد معظم شركات الذكاء الاصطناعي حاليًا على مزيج من التشفير، ضوابط الوصول، وسياسات الحوكمة لحماية البيانات الحساسة. يُطبق التشفير على البيانات أثناء السكون وفي أثناء النقل باستخدام خوارزميات معتمدة، بينما تتحكم ضوابط الوصول القائمة على الأدوار، والتسجيل، والكشف عن الشذوذ في من يمكنه التفاعل مع الأنظمة وتحت أي ظروف. تمثل هذه التدابير الحد الأدنى للصناعة، ولعديد من الحالات، فهي كافية.
تظهر المشكلة في لحظة محددة وغالبًا ما يتم تجاهلها: عندما يتم فك تشفير البيانات داخل الذاكرة لتدريب النموذج أو الاستنتاج. عندها، تفتح نافذة تعرض البيانات للخطر. تعالج الحوسبة السرية هذا مباشرة عن طريق تشفير البيانات أثناء معالجتها النشطة، داخل الأجهزة نفسها، بحيث حتى مشغل البنية التحتية لا يمكنه رؤية ما يحدث داخل الآلة.
يحدد شديد ثغرة هيكلية لا تغلقها الأساليب الأمنية التقليدية تمامًا. عندما يتم فك تشفير البيانات على خادم لا يسيطر عليه العميل مباشرة — مثل بيئة سحابة عامة أو منصة ذكاء اصطناعي طرف ثالث — لا يملك العميل وسيلة تقنية للتحقق مما يحدث لها فعليًا. هم، في الواقع، يعتمدون على كلام البائع.
هذه المشكلة لا تقتصر على المستخدمين النهائيين. في البيئات المنظمة، يواجه مسؤولو أمن المعلومات، ومدققو الامتثال، والمنظمون نفس المشكلة. عادةً، يعتمدون على شهادات ISO 27001، وتقارير SOC 2، ووثائق السياسات — أدوات، كما يقول شديد، تثبت النية أكثر مما تثبت ما يحدث فعليًا للبيانات أثناء الاستخدام. يغير الحوسبة السرية مع الإثبات المعادلة من خلال تقديم أدلة تشفير مقاومة للتلاعب تثبت أن نسخة نموذج معينة تم تشغيلها داخل بيئة تنفيذ موثوقة ومعتمدة وبرمجيات موثوقة. يتحول الضمان من نية موثقة إلى حقيقة تقنية قابلة للتحقق.
الزخم التنظيمي وراء هذا التحول واضح بالفعل. وفقًا لدراسة IDC حول الحوسبة السرية في يوليو 2025، أدى إدخال قانون المرونة التشغيلية الرقمية في الاتحاد الأوروبي إلى أن يصبح 77% من المؤسسات أكثر احتمالًا للنظر في الحوسبة السرية، وأن 75% منها تعتمدها بالفعل بشكل ما. كانت الفوائد الرئيسية المبلغ عنها هي تحسين سلامة البيانات، وضمانات السرية المثبتة، وتقوية الامتثال التنظيمي.
ماذا يعني التنفيذ القابل للتحقق في الممارسة
بالنسبة للجمهور غير التقني، يصف شديد التنفيذ القابل للتحقق بأنه استلام إيصال تشفيري بعد أن يعالج نظام الذكاء الاصطناعي البيانات. يُظهر هذا الإيصال، بطريقة قابلة للتحقق رياضيًا، أن الذكاء الاصطناعي عمل على جهاز معتمد، وأنه نفذ النسخة المتوقعة من البرمجيات، وأن البيئة كانت مؤمنة بشكل مناسب قبل فك تشفير البيانات الحساسة. لم يعد سلامة العملية تعتمد على الثقة في ضمانات المزود — بل على التحقق من الأدلة.
على المستوى التقني، يتحقق ذلك من خلال ثلاث آليات مترابطة. تتيح بيئات التنفيذ الموثوقة، أو TEEs، للمعالج أن يخصص منطقة مغلقة — ذاكرة وتنفيذ معزولتين على مستوى السيليكون — بحيث لا يمكن لنظام التشغيل، أو الهايبرفايزور، أو مشغل السحابة قراءة ما يحدث داخلها. ثم تسمح الإثباتات البعيدة لطرف خارجي بالتحقق من أن بيئة تنفيذ موثوقة حقيقية تعمل على برمجيات معتمدة قبل إصدار مفاتيح فك التشفير أو إدخال البيانات الحساسة. وأخيرًا، تتيح النتائج القابلة للتحقق لبعض الأنظمة توقيع نتائجها بشهادة مرتبطة بالإثبات، بحيث يمكن لأي شخص يتلقى النتيجة التأكد من أنها جاءت من التطبيق المتوقع داخل بيئة محمية ولم تتغير أثناء النقل.
يجادل شديد بأن مزايا الحوسبة السرية تمتد عبر كامل سلسلة قيمة الذكاء الاصطناعي. يكتسب مطورو الذكاء الاصطناعي القدرة على تدريب وتشغيل النماذج على مجموعات بيانات حساسة أو منظمة في بيئات سحابية مشتركة دون كشف البيانات الخام لمشغل المنصة. تقلل التقنية من التعرض القانوني والسمعة من خلال تقديم دليل قابل للعرض يثبت أن البيانات الشخصية تظل محمية أثناء معالجة الذكاء الاصطناعي — مما يدعم متطلبات الخصوصية من نوع GDPR والتنظيمات القطاعية. كما تفتح الباب للتعاون بين المؤسسات، حيث يمكن لكل طرف التحقق من أن بياناته تُعالج فقط داخل بيئات موثوقة ومتوافقة مع السياسات، مما يزيل أحد الحواجز الرئيسية أمام مشاريع الذكاء الاصطناعي المشتركة.
بالنسبة للمستخدمين النهائيين، فإن الفائدة هي ضمان أقوى وأكثر ملموسية بعدم تمكن المشغلين أو الداخلين أو المستأجرين الآخرين في السحابة من الوصول إلى بياناتهم الشخصية أثناء تشغيل أنظمة الذكاء الاصطناعي. كما يجعل ذلك الخدمات ذات القيمة العالية ممكنة — مثل التوجيه الصحي الشخصي أو النصائح المالية المفصلة — التي كانت تعتبر سابقًا حساسة جدًا لتقديمها عبر البنية التحتية السحابية.
يستند شديد إلى خبرته كمطور برمجيات ليُوضح أحد المخاطر الأقل مناقشة. يعتاد المطورون على لصق الشفرات المملوكة، وملفات التكوين، ومفاتيح API، والرموز المميزة في أدوات برمجة الذكاء الاصطناعي، غالبًا مع محدودية الرؤية حول كيفية تخزين أو استخدام تلك البيانات. يجعل وتيرة الصناعة من الصعب تجنب هذه الأدوات. كانت هذه التوترات — الحاجة إلى التحرك بسرعة مع الوعي الحاد بتعرض الملكية الفكرية — هي التي دفعته لبناء ORGN، بيئة تطوير سرية مبنية على مبادئ الحوسبة السرية.
لماذا لم تنتشر بعد بشكل واسع
على الرغم من أن 75% من المؤسسات تعتمد بشكل ما على الحوسبة السرية، إلا أن دراسة IDC وجدت أن 18% فقط من المؤسسات أدخلتها في بيئات الإنتاج. يحدد شديد ثلاثة حواجز رئيسية: تعقيد التحقق من الإثبات، تصور مستمر بأنها تقنية متخصصة، ونقص المهندسين ذوي المهارات ذات الصلة.
يشرح أن التحقق من الإثبات أكثر تعقيدًا عمليًا مما يبدو على الورق. تصل أدلة الإثبات كهيكليات ثنائية أو كائنات JSON تحتوي على قياسات، وشهادات، وضمانات، ويجب تحليلها، والتحقق من صحتها مقابل جذور البائع، والتحقق من حداثتها وإلغائها. ثم يتعين على المطورين تحديد ما يُعتبر موثوقًا — أي إصدارات البرامج الثابتة، وهاشات الصور، وقياسات التطبيقات المقبولة — ودمج تلك المنطق في لوحة التحكم الخاصة بهم أو نظام إدارة المفاتيح. تقدم مزودات السحابة الكبرى مثل AWS، Azure، وOracle حوسبة سرية بأسعار تقارب البنية التحتية التقليدية، لذا فإن الحاجز ليس الوصول أو السعر، بل العمق الهندسي المطلوب لتشغيل التحقق بشكل صحيح.
يعتقد شديد أن الاعتماد الأوسع سيعتمد على ثلاثة قوى مت converging. أولاً، يجب أن يصبح التحقق من الإثبات أكثر سهولة، إما من خلال التوحيد القياسي أو عبر أدوات مفتوحة المصدر تُجرد التعقيد عن فرق التطوير الفردية. ثانيًا، ستستمر الضغوط التنظيمية في دفع الاعتماد، كما حدث مع DORA — وإذا سارت الأطر التنظيمية في قطاعات أخرى على نفس المسار، فسيصبح من الصعب تجاهل الجدوى التجارية للحوسبة السرية. ثالثًا، والأهم، أن زيادة الوعي العام بما يحدث للبيانات داخل أنظمة الذكاء الاصطناعي ضرورية. يعتقد شديد أن معظم الناس، بما في ذلك المطورين والمستخدمين العاديين، ليس لديهم تصور واضح عما يحدث عندما يرسلون طلبًا إلى أداة ذكاء اصطناعي للمستهلك. زيادة الوعي بهذا التعرض — بين المطورين والمستخدمين على حد سواء — ستولد ضغطًا اجتماعيًا يسرع الاعتماد بشكل أكثر فاعلية من الحجج التقنية وحدها.
وفي المستقبل، يقترح أنه إذا أصبحت الحوسبة السرية والتنفيذ القابل للتحقق البنية التحتية الافتراضية الافتراضية، فإن طريقة تصميم وبيع وحوكمة خدمات الذكاء الاصطناعي ستتغير بشكل جوهري. سيحصل العملاء على أدلة تشفيرية على كيفية معالجة بياناتهم بدلاً من ضمانات السياسات، مما يمكّن المؤسسات من إثبات الامتثال للمنظمين والمجالس بشكل ملموس وليس فقط من خلال الوثائق. يقارن شديد ذلك بالتشفير في التخزين والشبكات، الذي انتقل من تدبير أمني اختياري إلى الحد الأدنى للمتطلبات الأساسية خلال فترة زمنية قصيرة. ويؤكد أن الاتجاه للحوسبة التنفيذية السرية هو نفسه — وبمجرد أن يصبح ذلك واقعًا، فإن كل استنتاج، وكل مهمة ضبط دقيق، وكل عملية تسليم بيانات ستحتوي على إثبات تشفيري، مما يجعل سلامة خط الأنابيب مسألة حقيقة قابلة للتحقق بدلاً من الثقة المؤسساتية.