Zhipu, Sisi Bulan, dan Xiaomi Mengadakan Rapat Meja Bundar Bersama: Model Besar Mulai "Bekerja" Secara Nyata, Kekuatan Komputasi Masih Menjadi Kendala Utama

Penulis: Chen Junda

Zhidongxi 27 Maret melaporkan bahwa hari ini, di Forum Pusat Zhongguancun, CEO Zhipu Zhang Peng, CEO Moonshot (Moonshot AI) Yang Zhilin (berperan sebagai moderator), kepala model besar Xiaomi MiMo Luo Fuli, CEO Wuwenxinqiong Xia Lixue, dan asisten profesor dari Universitas Hong Kong Huang Chao jarang sekali tampil di panggung yang sama, mengadakan dialog mendalam tentang arah masa depan model besar sumber terbuka dan agen.

Dialog ini dimulai dengan OpenClaw yang paling panas saat ini, dan semua pembicara sepakat bahwa agen membuat model besar benar-benar mulai “bekerja”. OpenClaw dapat memperluas batas kemampuan model besar, tetapi juga mengajukan persyaratan yang lebih tinggi untuk model. Zhipu sedang meneliti kemampuan perencanaan jangka panjang, debugging mandiri, dan lainnya, sementara tim Luo Fuli lebih fokus pada pengurangan biaya dan peningkatan kecepatan melalui inovasi arsitektur, bahkan mewujudkan evolusi diri model.

Infrastruktur juga harus mengikuti irama agen. Xia Lixue percaya bahwa sistem komputasi dan arsitektur perangkat lunak saat ini masih untuk penggunaan manusia, bukan untuk agen, yang sebenarnya membatasi ruang bermain Agen dengan kemampuan operasi manusia. Oleh karena itu, kami perlu membangun Agentic Infra.

Di mata banyak pembicara, sumber terbuka adalah salah satu kekuatan pendorong inti untuk perkembangan model besar dan agen. Asisten profesor dari Universitas Hong Kong Huang Chao percaya bahwa kemakmuran ekosistem sumber terbuka adalah kunci agen berubah dari “bermain” menjadi benar-benar “bekerja”, dan hanya melalui kemitraan komunitas yang dapat membuat perangkat lunak, data, dan teknologi sepenuhnya beralih ke bentuk asli agen, akhirnya membentuk ekosistem AI global yang berkelanjutan.

Selain itu, beberapa pembicara juga membahas topik-topik seperti kenaikan harga model besar, ledakan penggunaan token, dan kata kunci penting untuk masa depan AI dalam 12 bulan ke depan. Berikut adalah pandangan inti dari forum meja bundar ini:

  1. Zhang Peng: Ketika model menjadi lebih besar, biaya inferensi juga akan meningkat sesuai dengan itu. Strategi kenaikan harga Zhipu dalam waktu dekat sebenarnya adalah kembali ke nilai komersial normal, dan persaingan harga rendah jangka panjang tidak menguntungkan perkembangan industri.

  2. Zhang Peng: Ledakan teknologi baru seperti agen telah meningkatkan penggunaan token sepuluh kali lipat, tetapi permintaan aktual mungkin meningkat 100 kali lipat, masih ada permintaan besar yang tidak terpenuhi, oleh karena itu daya komputasi masih menjadi masalah kunci dalam 12 bulan ke depan.

  3. Luo Fuli: Dari perspektif produsen model dasar, OpenClaw menjamin batas bawah model dasar dan menaikkan batas atas. Tugas penyelesaian model sumber terbuka dalam negeri + OpenClaw sudah sangat dekat dengan Claude.

  4. Luo Fuli: DeepSeek memberikan keberanian dan kepercayaan diri kepada produsen model besar dalam negeri. Beberapa inovasi struktur model yang tampaknya “berkompromi untuk efisiensi” telah memicu perubahan nyata, memungkinkan industri mengeluarkan tingkat kecerdasan tertinggi dengan jumlah daya komputasi tertentu.

  5. Luo Fuli: Hal terpenting dalam perjalanan AGI tahun depan adalah “evolusi diri”. Evolusi diri membiarkan model besar menjelajahi seperti ilmuwan terkemuka, dan merupakan satu-satunya tempat yang dapat “menciptakan hal-hal baru”. Xiaomi telah meningkatkan efisiensi penelitian 10 kali lipat dengan bantuan Claude Code+ model terkemuka.

  6. Xia Lixue: Ketika era AGI tiba, infrastruktur itu sendiri seharusnya adalah agen, mengelola seluruh infrastruktur secara mandiri, mengulangi infrastruktur sesuai kebutuhan pelanggan AI, mewujudkan evolusi diri dan iterasi diri.

  7. Xia Lixue: OpenClaw memicu ledakan penggunaan token. Kecepatan konsumsi token saat ini, seperti zaman era 3G dulu ketika aliran data ponsel baru saja dimulai, dengan hanya alokasi 100M per bulan.

  8. Huang Chao: Di masa depan, banyak perangkat lunak tidak akan diarahkan pada manusia, perangkat lunak, data, dan teknologi akan menjadi bentuk asli Agen, manusia di masa depan mungkin hanya perlu menggunakan “GUI yang membuat mereka bahagia”.

Berikut adalah transkrip lengkap dari forum meja bundar ini:

  1. OpenClaw adalah “perancah”, konsumsi token model besar masih dalam era 3G

Yang Zhilin: Sangat terhormat hari ini dapat mengundang semua pembicara penting, beberapa pembicara berasal dari lapisan model, lapisan daya komputasi hingga lapisan agen. Kata kunci utama hari ini adalah sumber terbuka, dan juga agen.

Pertanyaan pertama adalah membahas OpenClaw yang paling populer saat ini. Apakah semua orang menggunakan OpenClaw atau produk serupa dalam penggunaan sehari-hari? Ada apa yang dirasakan paling penuh dengan imajinasi atau kesan mendalam? Dari perspektif teknis, bagaimana pandangan tentang evolusi OpenClaw dan Agen terkait saat ini?

Zhang Peng: Saya mulai bermain OpenClaw sejak dini, saat itu masih disebut Clawbot. Saya mengutak-atik sendiri, bagaimanapun juga saya adalah seorang programmer, bermain dengan hal-hal ini masih memiliki pengalaman saya sendiri.

Saya merasa titik terobosan terbesar yang diberikan OpenClaw kepada semua orang, atau rasa kesegaran, adalah bahwa itu tidak lagi monopoli programmer atau geek. Orang biasa juga dapat dengan mudah menggunakan kemampuan model terkemuka, terutama dalam aspek pemrograman dan agen.

Jadi sampai sekarang, dalam proses berkomunikasi dengan semua orang, saya lebih suka menyebut OpenClaw sebagai “perancah”. Apa yang disediakan adalah kemungkinan, di atas fondasi model telah dibangun perancah yang sangat kuat, sangat nyaman, tetapi juga sangat fleksibel. Semua orang dapat sesuai keinginan mereka sendiri, menggunakan banyak fungsi baru yang disediakan oleh model dasar.

Awalnya ide Anda sendiri mungkin akan dibatasi oleh ketidakmampuan menulis kode, atau tidak menguasai keterampilan terkait lainnya. Hari ini dengan OpenClaw, akhirnya dapat diselesaikan melalui komunikasi yang sangat sederhana.

OpenClaw membawa dampak yang sangat besar bagi saya, atau membuat saya mengenali kembali hal ini.

Xia Lixue: Sebenarnya, ketika saya pertama kali menggunakan OpenClaw, saya tidak terlalu terbiasa, karena saya terbiasa dengan cara berkomunikasi chatting dengan model besar, setelah digunakan saya merasa OpenClaw responsnya sangat lambat.

Tetapi kemudian saya menyadari suatu masalah, yaitu itu sangat berbeda dari chatbot sebelumnya, esensinya adalah seorang “orang” yang dapat membantu saya menyelesaikan tugas-tugas besar. Saya mulai menyerahkan tugas-tugas yang lebih kompleks kepada itu, dan menemukan bahwa sebenarnya itu dapat melakukan pekerjaan dengan sangat baik.

Hal ini memberikan saya perasaan yang sangat mendalam. Model awalnya menurut token untuk chatting, sampai sekarang dapat berubah menjadi agen, berubah menjadi lobster, dapat membantu Anda menyelesaikan tugas. Hal ini membawa peningkatan besar dalam ruang imajinasi keseluruhan AI.

Pada saat yang sama, hal itu juga menetapkan persyaratan yang sangat tinggi untuk kemampuan seluruh sistem. Ini juga alasan mengapa ketika saya pertama kali menggunakan OpenClaw, saya merasa agak tersentak. Sebagai pabrikan tingkat infrastruktur, apa yang saya lihat adalah kemungkinan dan tantangan yang lebih besar yang dibawa OpenClaw kepada sistem dan ekosistem besar di balik AI.

Semua sumber daya yang dapat kami gunakan sekarang, untuk mendukung era pertumbuhan cepat seperti ini tidak cukup. Misalnya, ambil perusahaan kami misalnya, sejak akhir Januari, pada dasarnya setiap dua minggu penggunaan token kami berlipat ganda, hingga sekarang pada dasarnya meningkat 10 kali lipat.

Terakhir kali saya melihat kecepatan ini, adalah ketika saya mengomsumsi aliran data ponsel 3G dulu. Saya memiliki perasaan bahwa penggunaan token saat ini, seperti zaman dulu ketika setiap bulan hanya memiliki anggaran aliran data ponsel 100M.

Dalam situasi ini, semua sumber daya kami perlu dioptimalkan dengan lebih baik, dapat mengintegrasikan lebih baik. Biarkan setiap orang, bukan hanya di bidang AI, tetapi setiap orang dalam seluruh masyarakat dapat menggunakan kemampuan AI OpenClaw.

Sebagai pemain infrastruktur, saya sangat bersemangat tentang era ini, sangat berkesan. Saya juga percaya bahwa ada banyak ruang optimisasi di sini yang masih harus kami jelajahi, harus mencoba.

  1. OpenClaw naik batas atas model domestik, terobosan mode interaksi sangat penting

Luo Fuli: Saya sendiri menganggap OpenClaw sebagai peristiwa yang sangat revolusioner dan disruptive dalam proses evolusi kerangka agen.

Sebenarnya semua orang di sekitar saya yang melakukan coding yang sangat mendalam, pilihan pertama mereka masih Claude Code. Namun, saya yakin orang-orang yang menggunakan OpenClaw akan merasakan bahwa banyak desain pada kerangka Agen itu adalah terdepan dari Claude Code. Baru-baru ini Claude Code memiliki banyak pembaruan yang sebenarnya bergerak mendekat ke OpenClaw.

Pengalaman saya sendiri saat menggunakan OpenClaw adalah, kerangka ini membawa saya lebih banyak ekspansi imajinasi kapan saja dan di mana saja. Claude Code awalnya hanya dapat memperluas kreativitas saya di desktop saya, tetapi OpenClaw dapat memperluas kreativitas saya kapan saja dan di mana saja.

Nilai inti yang dibawa OpenClaw terutama ada dua poin. Poin pertama adalah open source. Hal open source sangat bermanfaat bagi seluruh komunitas untuk berpartisipasi secara mendalam, menghargai dan mendorong evolusi kerangka kerja ini, ini adalah kondisi penting yang diperlukan.

Seperti kerangka AI OpenClaw, saya merasa nilai besar dalam kerangka ini adalah bahwa itu menarik batas atas dari model-model domestik yang levelnya dekat dengan model closed source, tetapi belum sepenuhnya mengejar, menjadi sangat tinggi.

Dalam sebagian besar skenario, Anda akan menemukan bahwa tingkat penyelesaian tugasnya (model sumber terbuka domestik + OpenClaw) sudah sangat dekat dengan model terbaru Claude. Pada saat yang sama, itu juga menjamin batas bawah dengan baik—melalui sistem Harness, atau dengan memanfaatkan desain sistem Skill dan lainnya, menjamin kelengkapan dan akurasi tugas.

Untuk merangkum, dari perspektif pengembang produsen model dasar, OpenClaw menjamin batas bawah model dasar, dan menaikkan batas atas.

Selain itu, saya percaya nilai lain yang dibawanya ke komunitas adalah bahwa itu menyalakan kesadaran semua orang, membuat semua orang menemukan bahwa di luar model besar, lapisan Agen sebenarnya menyimpan ruang imajinasi yang sangat besar.

Baru-baru ini saya juga mengamati bahwa selain peneliti, jumlah orang yang terus meningkat mulai berpartisipasi dalam transformasi AGI, lebih banyak orang mulai kontak dengan kerangka Agen yang lebih kuat seperti Harness, Scaffold. Orang-orang jenis ini pada tingkat tertentu menggunakan alat-alat ini untuk menggantikan bagian dari pekerjaan mereka, sekaligus melepaskan waktu mereka sendiri, untuk berinvestasi dalam hal-hal yang lebih penuh imajinasi.

Huang Chao: Saya percaya bahwa pertama-tama dari perspektif mode interaksi, alasan pertama OpenClaw dapat lepas di kali ini mungkin adalah itu memberikan pengalaman yang lebih “hidup”. Sebenarnya kami membuat Agen selama satu atau dua tahun, tetapi sebelumnya seperti Cursor, Claude Code dan Agen-agen lain ini, memberikan orang perasaan yang lebih banyak adalah semacam “perasaan alat”. Sementara OpenClaw untuk pertama kalinya dengan cara “instant messaging software embedded”, membuat orang memiliki perasaan lebih dekat ke “Jarvis pribadi” yang ada di pikiran mereka. Saya percaya ini mungkin terobosan dalam mode interaksi.

Titik lainnya, inspirasi yang dibawanya ke seluruh komunitas adalah: kerangka sederhana tetapi efisien seperti Agent Loop ini, sekali lagi terbukti layak. Pada saat yang sama, hal itu juga membuat kami memikirkan kembali suatu masalah: apa yang sebenarnya kami butuhkan, sebuah agen super yang serba bisa, dapat melakukan segala sesuatu, atau kami membutuhkan “housekeeper” yang lebih baik, seperti sistem operasi ringan atau perancah?

Pemikiran yang dibawa oleh OpenClaw adalah, melalui “sistem kecil” seperti ini atau katakan “sistem operasi lobster” dan ekosistemnya, biarkan semua orang benar-benar memiliki mentalitas “bermain”, dan kemudian memanfaatkan semua alat di seluruh ekosistem.

Dengan munculnya kemampuan seperti Skills, Harness, semakin banyak orang dapat merancang aplikasi yang diarahkan pada sistem seperti OpenClaw, untuk memberdayakan berbagai industri. Saya percaya poin ini secara alami terintegrasi dengan baik dengan seluruh ekosistem sumber terbuka. Menurut pandangan saya, dua poin ini adalah inspirasi terbesar yang kami dapatkan.

  1. Model baru GLM “diluncurkan untuk bekerja”, kenaikan harga adalah kembali ke nilai komersial normal

Yang Zhilin: Ingin bertanya kepada Zhang Peng. Baru-baru ini saya melihat Zhipu meluncurkan model GLM-5 Turbo baru, saya memahami telah membuat peningkatan besar dalam kemampuan Agen. Bisakah Anda memperkenalkan model baru ini dan perbedaannya dari model lain? Selain itu, kami juga mengamati ada strategi kenaikan harga, apa sinyal pasar yang dicerminkan oleh ini?

Zhang Peng: Ini adalah pertanyaan yang sangat baik. Hari-hari lalu kami memang melakukan pembaruan darurat, ini sebenarnya adalah tahap dalam roadmap perkembangan keseluruhan kami, hanya saja kami melepaskannya lebih awal.

Tujuan utamanya adalah pergeseran dari “chatting sederhana” asli menjadi “benar-benar bekerja”—ini juga apa yang semua orang rasakan baru-baru ini: model besar tidak hanya dapat chatting, tetapi benar-benar dapat membantu orang bekerja.

Namun di balik “bekerja” ada persyaratan kemampuan yang sangat tinggi. Model perlu melakukan perencanaan tugas jangka panjang sendiri, terus mencoba dan salah, mengompresi konteks, debugging, dan juga mungkin perlu menangani informasi multimodal. Jadi persyaratan untuk kemampuan model, sebenarnya berbeda dari model tujuan umum tradisional yang diarahkan pada percakapan. GLM-5 Turbo adalah memperkuat aspek-aspek ini secara khusus, terutama yang Anda sebutkan—membuatnya bekerja, berjalan selama tujuh puluh dua jam, bagaimana itu dapat terus-menerus loop, kami melakukan banyak pekerjaan di sini.

Selain itu, semua orang juga sangat peduli tentang masalah konsumsi token. Biarkan model yang cerdas menjalankan tugas kompleks, konsumsi token sangat besar. Orang biasa mungkin tidak memiliki persepsi yang mendalam, tetapi ketika melihat tagihan, mereka akan menemukan uang jatuh sangat cepat. Jadi kami juga melakukan optimisasi dalam aspek ini, menghadapi tugas kompleks, model dapat menyelesaikan dengan efisiensi token yang lebih tinggi. Secara keseluruhan, arsitektur model masih merupakan arsitektur umum kolaborasi multitugas, hanya saja memperkuat kemampuan dalam arah tertentu.

Hal tentang kenaikan harga sebenarnya juga dapat dijelaskan dengan baik. Seperti yang saya katakan, sekarang bukan lagi sekadar mengajukan pertanyaan dan mendapatkan jawaban, rantai penalaran di belakang sangat panjang. Banyak tugas harus melalui penulisan kode dan berinteraksi dengan infrastruktur dasar, juga perlu terus mendebug, memperbaiki kesalahan, jumlah konsumsi sangat besar. Token yang dibutuhkan untuk menyelesaikan tugas kompleks, mungkin sepuluh bahkan seratus kali dari yang dibutuhkan untuk menjawab pertanyaan sederhana.

Jadi perlu ada peningkatan tertentu dalam harga, model juga menjadi lebih besar, biaya inferensi meningkat sesuai dengan itu. Kami mengembalikannya ke nilai komersial normal, karena persaingan harga rendah jangka panjang juga tidak menguntungkan perkembangan seluruh industri. Ini juga cara kami membuat komersial membentuk loop tertutup yang positif, terus mengoptimalkan kemampuan model, memberikan layanan yang lebih baik kepada semua orang.

  1. Bangun pabrik token yang lebih efisien, infrastruktur itu sendiri juga harus menjadi Agen

Yang Zhilin: Sekarang model sumber terbuka semakin banyak, dan juga mulai membentuk ekosistem, berbagai model dapat memberikan nilai lebih kepada pengguna di platform komputasi yang berbeda. Seiring dengan ledakan penggunaan token, model besar juga bergerak dari era pelatihan ke era inferensi. Ingin meminta nasihat kepada Lixue, dari perspektif infrastruktur, apa yang berarti era inferensi bagi Wuwenxinqiong?

Xia Lixue: Kami adalah pabrikan infrastruktur yang lahir di era AI, sekarang juga menyediakan dukungan untuk Zhipu, Kimi, Mimo dan lainnya, memungkinkan semua orang menggunakan pabrik token dengan lebih efisien. Pada saat yang sama, kami juga berkolaborasi dengan banyak universitas dan lembaga penelitian.

Jadi kami selalu berpikir tentang satu hal: Apa jenis infrastruktur yang dibutuhkan era AGI? Dan bagaimana kami melangkah demi langkah untuk mewujudkan dan mendemonstrasikan. Kami sudah membuat persiapan penuh tentang masalah apa yang perlu diselesaikan di berbagai tahap jangka pendek, menengah, dan panjang.

Masalah paling langsung saat ini, adalah apa yang semua orang bicarakan tadi—seluruh ledakan volume token yang dibawa Open, mengajukan kebutuhan optimisasi efisiensi sistem yang lebih tinggi. Termasuk penyesuaian harga, sebenarnya juga merupakan cara merespons di bawah kebutuhan ini.

Kami selalu menggunakan cara untuk menerobos perangkat keras dan perangkat lunak untuk tata letak dan menyelesaikan. Misalnya, kami telah mengakses hampir semua jenis chip komputasi, menyatukan puluhan jenis chip yang berbeda di dalam negeri dan puluhan kelompok daya komputasi yang berbeda. Ini dapat menyelesaikan masalah kekurangan sumber daya komputasi di sistem AI, ketika sumber daya tidak cukup, cara terbaik adalah terlebih dahulu memanfaatkan sumber daya yang dapat digunakan, dan kemudian membuat setiap daya komputasi digunakan di tepi pisau, memainkan efisiensi konversi maksimum.

Jadi pada tahap ini, apa yang harus kami selesaikan adalah bagaimana membangun pabrik token yang lebih efisien. Kami melakukan banyak optimisasi di sini, termasuk membuat model dan sumber daya di perangkat keras seperti memori video melakukan adaptasi optimal, juga melihat apakah struktur model terbaru dan struktur perangkat keras dapat menghasilkan reaksi kimia yang lebih dalam. Tetapi menyelesaikan masalah efisiensi saat ini, sebenarnya hanya dibangun pabrik token standar.

Menghadapi era Agen, kami percaya ini belum cukup. Karena Agen lebih seperti seorang manusia, dapat diserahkan kepadanya tugas. Saya dengan teguh percaya bahwa banyak infrastruktur era cloud computing saat ini, dirancang untuk melayani program, melayani insinyur manusia, bukan dirancang untuk AI. Ini setara dengan kami membuat infrastruktur, di atasnya adalah antarmuka yang digunakan untuk manusia, kemudian di atasnya membungkus lapisan untuk terhubung ke Agen, cara ini sebenarnya membatasi ruang bermain Agen dengan kemampuan operasi manusia.

Ambil contoh, Agen dapat berpikir pada tingkat milidetik untuk memulai tugas, tetapi kemampuan dasar seperti K8s (kubernetes), sebenarnya belum siap untuk ini, karena manusia meluncurkan tugas pada tingkat menit. Jadi kami membutuhkan kemampuan lebih lanjut, kami menyebutnya “Agentic Infra”, juga “pabrik token yang cerdas”, ini adalah apa yang dilakukan Wuwenxinqiong.

Melihat lebih jauh ke depan, ketika era AGI benar-benar tiba, kami percaya bahwa bahkan infrastruktur itu sendiri harus menjadi agen. Sistem pabrik yang kami bangun, juga harus mampu berevolusi diri, melakukan iterasi diri, untuk membentuk organisasi mandiri. Ini setara dengan memiliki CEO, CEO itu sendiri adalah agen, mungkin OpenClaw, untuk mengelola seluruh infrastruktur, kemudian sesuai kebutuhan pelanggan AI untuk meminta sendiri, mengulangi infrastruktur. Dengan cara ini, AI dan AI dapat lebih baik terhubung bersama. Kami juga melakukan beberapa eksplorasi, seperti membuat Agen berbicara satu sama lain dengan lebih baik, melakukan kemampuan Cache to Cache.

Jadi yang selalu kami pikirkan adalah, perkembangan infrastruktur dan AI seharusnya bukan dalam keadaan terisolasi—saya menerima kebutuhan kemudian menulis ulang, tetapi seharusnya menghasilkan reaksi kimia yang sangat kaya. Ini adalah kolaborasi perangkat lunak dan perangkat keras yang benar-benar bermakna, juga kolaborasi algoritma dan infrastruktur, dan juga misi yang selalu ingin kami wujudkan oleh Wuwenxinqiong. Terima kasih.

  1. Inovasi “berkompromi untuk efisiensi” juga memiliki makna, DeepSeek membawa keberanian dan kepercayaan diri ke tim domestik

Yang Zhilin: Selanjutnya ingin bertanya kepada Fuli. Xiaomi baru-baru ini melalui merilis model baru, teknologi sumber terbuka di baliknya, memberikan kontribusi besar kepada komunitas. Ingin bertanya kepadamu, bagaimana menurut kamu keunggulan unik dari Xiaomi dalam melakukan model besar?

Luo Fuli: Saya pikir kita bisa meninggalkan topik tentang apa keunggulan unik Xiaomi terlebih dahulu, Saya lebih ingin berbicara tentang keunggulan keseluruhan yang dimiliki tim dalam negeri untuk membuat model besar. Saya pikir topik ini memiliki nilai yang lebih luas.

Kira-kira dua tahun yang lalu, tim model dasar China sudah mulai terobosan yang sangat baik—bagaimana kita melampaui keterbatasan dalam kondisi komputasi terbatas, terutama kondisi komputasi di mana keterbatasan bandwidth interkoneksi NVLink, melakukan semacam inovasi struktur model yang tampaknya “berkompromi untuk efisiensi”, seperti seri DeepSeek V2, V3, serta MoE, MLA dan sebagainya.

Tetapi kemudian kami melihat bahwa inovasi ini telah memicu transformasi: dalam kondisi komputasi tertentu, bagaimana memainkan level kecerdasan tertinggi. Ini adalah keberanian dan kepercayaan diri yang dibawa DeepSeek kepada semua tim model dasar dalam negeri. Meskipun hari ini chip domestik kami, terutama chip inferensi, serta chip pelatihan, sudah tidak lagi menghadapi jenis pembatasan ini, tetapi justru di bawah pembatasan ini, itu merangsang eksplorasi kami tentang efisiensi pelatihan yang lebih tinggi, biaya inferensi yang lebih rendah dalam struktur model.

Seperti struktur Hybrid Sparse, Linear Attention yang muncul baru-baru ini, seperti NSA milik DeepSeek, KSA milik Kimi, Xiaomi juga memiliki HySparse untuk menghadapi struktur generasi kecil. Semua ini struktur umum yang berbeda dari MoE generasi ini, inovasi struktur model yang dilakukan untuk era Agen.

Mengapa saya percaya inovasi struktur sangat penting? Sebenarnya jika Anda sungguh-sungguh bermain OpenClaw, Anda akan menemukan yang semakin Anda gunakan, semakin baik, semakin cerdas. Salah satu prasyarat adalah panjang konteks inferensi. Konteks panjang adalah topik yang kami bicarakan selama lama, tetapi sekarang model yang benar-benar dapat menampilkan kinerja bagus dalam konteks panjang, kinerja yang kuat, biaya inferensi rendah?

Sebenarnya banyak model tidak dapat tidak melakukan 1M atau 10M konteks, tetapi karena biaya inferensi 1M, 10M terlalu mahal, kecepatan terlalu lambat. Hanya dengan menurunkan biaya, meningkatkan kecepatan, dapat memberikan tugas dengan nilai produktivitas tinggi yang benar-benar kepada model, hanya dalam konteks panjang ini dapat menyelesaikan tugas dengan kompleksitas yang lebih tinggi, bahkan mewujudkan iterasi diri model.

Apa yang disebut iterasi diri model, adalah bahwa itu dapat dalam lingkungan yang kompleks, bergantung pada konteks super panjang untuk menyelesaikan evolusi diri. Evolusi ini mungkin untuk kerangka Agen itu sendiri, mungkin juga untuk parameter model itu sendiri—karena saya percaya konteks itu sendiri sebenarnya merupakan semacam evolusi parameter. Jadi bagaimana mewujudkan arsitektur konteks panjang, bagaimana pada sisi inferensi mencapai inferensi konteks panjang efisien, adalah persaingan menyeluruh.

Selain apa yang baru saja saya sebutkan, prefab awal lakukan arsitektur long-context-efficient yang baik—ini kira-kira masalah yang kami mulai eksplorasi setahun yang lalu. Sekarang untuk benar-benar mencapai efek batas atas dan stabilitas tinggi dalam tugas jangka panjang, adalah paradigma inovasi yang kami iterasi dalam fase post-training.

Kami sedang memikirkan bagaimana membangun algoritma pembelajaran yang lebih efektif, bagaimana mengumpulkan teks dengan hubungan ketergantungan jangka panjang yang benar dalam lingkungan nyata, dalam 1M, 10M, 100M konteks, serta data lintasan yang dihasilkan lingkungan kompleks. Ini adalah apa yang post-training kami lakukan.

Tetapi melihat lebih jauh, karena kemajuan pesat model besar itu sendiri, ditambah dengan kekuatan kerangka Agen, seperti yang dikatakan Lixue, kebutuhan inferensi dalam periode waktu terakhir telah meningkat hampir sepuluh kali lipat. Maka apakah pertumbuhan volume token secara keseluruhan tahun ini akan mencapai 100 kali lipat?

Di sini kami memasuki dimens

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan