Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Pre-IPOs
Отримайте повний доступ до глобальних IPO акцій.
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Акції
AI
Gate AI
Ваш універсальний AI-помічник для спілкування
Gate AI Bot
Використовуйте Gate AI безпосередньо у своєму соціальному додатку
GateClaw
Gate Блакитний Лобстер — готовий до використання
Gate for AI Agent
AI-інфраструктура, Gate MCP, Skills і CLI
Gate Skills Hub
Понад 10 000 навичок
Від офісу до трейдингу: універсальна база навичок для ефективнішої роботи з AI
GateRouter
Розумний вибір із понад 40 моделей ШІ, без додаткових витрат (0%)
Інтелектуальний аналіз GLM-5 «Проблема з кодуванням»: щодня мільйони викликів Coding Agent, два конкуренційні баги приховані у KV Cache
Згідно з моніторингом Beating, компанія 智谱 опублікувала аналіз проблем з кодуванням, повторним читанням та рідкісними символами у серії моделей GLM-5 у сценарії Coding Agent. З березня з’явилися перші відгуки користувачів, і аномалії виникали лише під високим навантаженням та при довгому контексті (середньо понад 70 тисяч токенів) у задачах Coding Agent, у стандартних умовах інференції їх не можна було відтворити. 智谱 повідомила, що їх система інференції обробляє щодня сотні мільйонів викликів Coding Agent.
Після кількох тижнів розслідувань команда виявила два незалежні базові баги гонки. Перший виник у архітектурі розділення PD (розподіл попереднього заповнення та декодування на різні вузли): при тайм-ауті на стороні декодування запит був скасований і KV Cache (кеш обчислених станів уваги, щоб уникнути повторних обчислень) був звільнений, але запис RDMA на стороні попереднього заповнення ще не закінчився, і новий запит був призначений на ту ж відеопам’ять, через що старі дані перезаписували нові. Виправлення полягає у додаванні явної синхронізації перед звільненням, щоб переконатися, що запис завершено, перш ніж звільняти. Після впровадження рівень аномалій знизився з десятих часток проміле до менше трьох проміле.
Другий баг був у HiCache (баг рівнів KV Cache): при асинхронній передачі кешу з пам’яті CPU у кеш, між лініями завантаження та обчислення відсутній синхронізаційний пункт, і обчислювальна сторона може почати читати дані ще до їх повного завантаження. Після виправлення цей тип аномалій зник повністю, патч був поданий у спільноту SGLang (PR #22811).
Під час розслідування також було виявлено несподіване явище: показник прийняття спекулятивного зразка (техніка прискорення, яка передбачає токен за допомогою меншої моделі, а потім перевіряє більшою) може слугувати сигналом для виявлення аномалій. При появі кодуванням більшість тестових токенів відхиляються, а при повторному читанні рівень прийняття значно вищий. Команда ввела онлайн-моніторинг: при досягненні порогового значення автоматично припиняється генерація та повторна спроба.
Після виправлення багів команда також оптимізувала систему: розподіл KV Cache за шарами LayerSplit, де кожен GPU зберігає лише частину кешу рівнів, а не весь обсяг, за допомогою координації через широкомовлення. При 90% рівні попадання кешу, при довжині запиту від 40K до 120K, пропускна здатність зросла на 10% до 132%, і чим довший контекст, тим більший приріст.