قدّمت Ramp Labs حلاً جديدًا لمشاركة الذاكرة بين وكلاء متعددين، حيث يتم خفض استهلاك الرموز (Token) إلى حدٍ أقصى أقل بنسبة 65%

GateNews

أخبار البوابة، في 11 أبريل، نشرت شركة Ramp Labs لأعمال البنية التحتية للذكاء الاصطناعي نتائج بحث بعنوان “Latent Briefing”، حيث تمكن من تحقيق مشاركة ذاكرة فعّالة بين أنظمة متعددة الوكلاء عبر ضغط مباشر لواجهة ذاكرة التخزين المؤقت الخاصة بـ KV لنماذج اللغات الكبيرة، وبدون فقد الدقة، خفّضت بشكل كبير استهلاك الرموز (Tokens). في البنى الشائعة للأنظمة متعددة الوكلاء، يقوم المُنسّق (Orchestrator) بتقسيم المهام واستدعاء نموذج العامل (Worker) بشكل متكرر؛ ومع استمرار تمديد سلسلة الاستدلال، يتضخم عدد Tokens بشكل أُسّي. تتمثل الفكرة الأساسية لـ Latent Briefing في استخدام آلية الانتباه (Attention) لتحديد الأجزاء الحقيقية الحاسمة ضمن السياق، ثم حذف المعلومات الزائدة مباشرةً على مستوى التمثيل، بدلًا من الاعتماد على تلخيص LLM بطيء أو استرجاع RAG ذو ثبات ضعيف. في اختبار المعيار LongBench v2، أظهرت هذه الطريقة أداءً لافتًا: انخفض استهلاك Tokens لدى نموذج العامل بنسبة 65%، وبلغ متوسط توفير Tokens للوثائق متوسطة الطول (32k إلى 100k) 49%، كما تحسنت الدقة الإجمالية بنحو 3 نقاط مئوية مقارنةً بالخط الأساسي، بينما بلغ الزمن الإضافي لكل عملية ضغط حوالي 1.7 ثانية فقط، أي أسرع بنحو 20 مرة مقارنةً بالخوارزمية الأصلية. أُجريت التجارب باستخدام Claude Sonnet 4 كمُنسّق، وQwen3-14B كنموذج عامل، مع تغطية سيناريوهات وثائق متعددة مثل الأوراق الأكاديمية والمستندات القانونية والروايات وتقارير حكومية، وغيرها. كما توصلت الدراسة إلى أن عتبة الضغط المثلى تختلف باختلاف صعوبة المهمة وطول المستند: فالمهام الصعبة تناسب الضغط الأكثر حدةً لتصفية ضوضاء الاستدلال الانتهازي، بينما المستندات الطويلة تكون أكثر ملاءمة للضغط الخفيف للاحتفاظ بالمعلومات الجوهرية المتفرقة.

إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.

مقالات ذات صلة

الرئيس التنفيذي لشركة Google: ستصل النفقات الرأسمالية لعام 2026 إلى 185 مليار دولار، مع زيادة الاستثمار في عصر الوكلاء الذكاء الاصطناعي

أعلن الرئيس التنفيذي لشركة Google، سوندار بيتشاي، في 22 أبريل خلال مؤتمر Google Cloud Next الذي عُقد في لاس فيغاس، أن شركة Google تخطط للاستثمار بين 175 ملياراً و185 مليار دولار كإنفاق رأسمالي في عام 2026، وذلك لبناء البنية التحتية اللازمة لوكلاء الذكاء الاصطناعي المستقلين (AI Agent)، بزيادة مقارنة بعام 2022 عندما بلغ الإنفاق 31 مليار دولار.

MarketWhisperمنذ 28 د

يعلن Google Jules عن قائمة المرشحين للإصدار الجديد المفتوح، مع إعادة تموضعها كمنصة لتطوير المنتجات من طرف إلى طرف

وفقًا لإعلان فريق Google Jules الرسمي بتاريخ 23 أبريل، تمت ترقية تحديد موقع منتج Jules من وكيل للترميز غير المتزامن إلى «منصة تطوير منتجات وكيلية من طرف إلى طرف»، ويمكن للإصدار الجديد قراءة السياق الكامل للمنتج واتخاذ قرار مستقل بشأن اتجاه الخطوة التالية للبناء، ثم تقديم طلب PR. وفي الوقت نفسه، أعلنت الجهة الرسمية عن فتح قائمة المرشحين لإصدار جديد.

MarketWhisperمنذ 34 د

Google Jules يعيد العلامة التجارية باعتباره منصة تطوير منتجات ذاتية شاملة من البداية إلى النهاية، ويفتح قائمة انتظار لإصدار جديد

رسالة أخبار بوابة، 23 أبريل — أعلنت فرق Jules التابعة لشركة Google عن فتح قائمة انتظار لإصدار جديد من المنتج، مع إعادة تموضع Jules من كونه وكيل برمجة غير متزامن إلى منصة لتطوير منتجات ذاتية شاملة من البداية إلى النهاية. ووفقًا للوصف الرسمي، تقرأ المنصة المُحسّنة سياق المنتج الكامل، وتحدد ما ينبغي بناؤه بعد ذلك، وتقترح الحلول، وترسل طلبات الدمج إلى المستودع. ا

GateNewsمنذ 1 س

Perplexity 揭示网页搜索代理的后训练方法;基于 Qwen3.5 的模型在准确率与成本方面优于 GPT-5.4

Perplexity 使用带有 Qwen3.5 模型的 SFT,随后采用 RL,并结合多跳问答数据集与评分细则校验来提升搜索的准确性与效率,实现同类最佳的 FRAMES 表现。 摘要:Perplexity 面向网页搜索代理的后训练流程,将监督微调 (SFT) 与通过 GRPO 算法进行的在线强化学习 (RL) 结合。该流程通过在线强化学习来确保指令遵循与语言一致性。RL 阶段使用专有的多跳可验证问答数据集以及基于评分细则的对话数据,以防止 SFT 漂移,并采用奖励门控与组内效率惩罚。评估显示,Qwen3.5-397B-SFT-RL 在 FRAMES 上取得顶级表现:单次工具调用准确率为 57.3%,四次调用为 73.9%,单次查询成本为 $0.02;在这些指标上优于 GPT-5.4 与 Claude Sonnet 4.6。定价基于 API,并且不包含缓存。

GateNewsمنذ 1 س

فريق OpenAI Codex يصلح خطأ مصادقة OpenClaw ويحسّن بشكل كبير سلوك الوكيل

تبدّل OpenClaw من حاضنات Pi إلى حاضنات Codex لإصلاح تراجع مصادقة صامت، مع وجود طلبَي سحب يعالجان الجسر والتراجع؛ بعد الإصلاح، ينتقل الوكيل من الاستقصاء السطحي لنبضات القلب إلى حلقة عمل كاملة، مما يتيح التقدّم. ملخص: عالجت تحسينات حاضنة Codex لدى OpenClaw خللاً حرجًا في المصادقة تسبب في تراجع صامت إلى حاضنة Pi عند استخدام Codex مع نماذج OpenAI. تُصلح طلبتا سحب عملية الجسر الخاص بالمصادقة وتمنع التراجع الصامت، وتغيّر محوّل وقت التشغيل. ونتيجة لذلك، تتطور سلوكيات الوكيل من الاستقصاء السطحي لنبضات القلب إلى حلقة عمل كاملة تقرأ السياق، وتُحلّل المهام، وتُعدّل المستودعات، وتتحقق من التقدّم، مما يحسّن الاستمرارية والرؤية عبر نبضات القلب.

GateNewsمنذ 2 س

وكلاء مساحة عمل ChatGPT من OpenAI: مدعوم بـ Codex، مشاركة الفريق، تكامل Slack

أطلقت OpenAI في 22 أبريل "Workspace Agents" على ChatGPT Business/Enterprise/Edu/Teachers، مدعومًا بـ Codex، يعمل باستمرار على السحابة، ويُتاح للمشاركة بين الفرق ويمكن تشغيله دون اتصال بالإنترنت. يمكنه الرد بشكل استباقي داخل Slack وتنفيذ مهام متعددة الخطوات وإصدار الفواتير، كما يدعم جدولة المهام. يتوفر البحث المبدئي مجانًا حتى 6 مايو، وبعد ذلك سيتم تطبيق رسوم على أساس الائتمانات (credit-based)، والسعر سيُعلن لاحقًا. ينافس هذا جنبًا إلى جنب مع GoogleGeminiEnterpriseAgentPlatform وAnthropicClaudeCowork، حيث تركز الشركات الثلاث على وكلاء بمستوى المؤسسات لكن مع اختلافات في التموضع.

ChainNewsAbmediaمنذ 3 س
تعليق
0/400
لا توجد تعليقات