Tether傘下のデータおよびAI部門QVACは、3月17日に重要な技術革新を発表し、世界初のMicrosoft BitNet(1ビットLLM)アーキテクチャをサポートするクロスプラットフォームLoRA微調整フレームワークをリリースしました。この技術はQVAC Fabricに統合されており、メモリと計算負荷を大幅に削減し、10億パラメータ規模のモデルが企業向けGPUの専売特許ではなくなり、一般的なスマートフォンやノートパソコン上で「ローカルかつ完全プライバシー」な学習を実現しています。
(前振り:TetherがAxiymに投資し、支払いインフラ拡大を推進:USDTをグローバルな規制対応支払いネットワークに統合)
(補足:TetherがAI睡眠テクノロジーに跨る投資!Eight Sleepに5000万ドルをリード投資、評価額は15億ドルに急上昇)
目次
Toggle
人工知能(AI)の分野では、強力なモデルの訓練は「金がかかる」ことの代名詞とされ、高価なNVIDIAシステムやクラウドコンピューティングに高度に依存してきました。しかし、ステーブルコインの巨人Tetherは、このルールを書き換えようとしています。Tether傘下の技術部門「Tether Data」は、3月17日に、同社のQVAC(QuantumVerse Automatic Computer)プラットフォーム向けに、世界初のクロスプラットフォーム対応BitNet LoRA微調整フレームワークを正式に発表しました。
この技術の核心的価値は、10億パラメータ規模のAIモデルを、ポケットに入るスマートフォン上で直接パーソナライズ学習させることができる点にあります。
この革新的な進展は、Microsoftが開発したBitNet 1ビットLLMアーキテクチャに基づいています。QVAC Fabricの最適化により、BitNetモデルのメモリ使用量と計算負荷は極めて低い水準に抑えられています。発表によると、このフレームワークは一般的なNVIDIA GPUだけでなく、Intel、AMD、AppleのMシリーズチップ、さらにはAndroidのAdreno、Mali、Apple Bionic GPUといったモバイルデバイス向けのGPUも完全にサポートしています。
これにより、従来はデータセンターだけで動作していたAIが、あなたのスマートフォン上で「Low-Rank Adaptation(LoRA)」による微調整を行えるようになったのです。Tetherは、この技術により、従来のQ4量子化モデルの「2倍」の規模のモデルをエッジデバイスで処理できると指摘し、極めて優れたメモリ効率を示しています。
Tetherのエンジニアチームは、発表の中で、現代のスマートフォン上での実戦能力を示す興奮させる実測データを共有しました。
TetherのCEO、Paolo Ardoinoは常に強調しています。「APIキーが必要なAIは、本当にあなたのものではない」と。QVACの基本理念は「ローカル優先(Local-first)」です。
BitNet LoRAフレームワークを通じて、ユーザーはメール、ノート、メッセージなどのローカルデータを直接学習させることができ、データをクラウドにアップロードする必要はありません。これにより、企業の機密データの濫用に対する懸念を払拭し、AI開発が少数の巨大企業に独占される現状を打破します。現在、QVAC Fabric LLMはオープンソース(Apache 2.0ライセンス)として公開されており、Hugging Faceにはプリセットアダプターも提供されているため、世界中の開発者がこのエッジコンピューティング革命をすぐに始められるようになっています。