Tether bringt weltweit erstes mobiles „Milliarden-Level-AI-Trainings-Framework" auf den Markt, iPhone und Samsung können LoRA ausführen

Tether旗下 Daten- und KI-Abteilung QVAC gab am 17. März eine bedeutende technische Durchbruch bekannt und präsentierte das weltweit erste plattformübergreifende LoRA-Feinabstimmungsframework, das die Microsoft BitNet (1-Bit LLM)-Architektur unterstützt. Diese Integration in QVAC Fabric reduziert den Speicher- und Rechenaufwand erheblich, sodass Billionen-Parameter-Modelle nicht mehr nur auf Unternehmens-GPUs beschränkt sind und eine lokale, vollständig private Schulung auf normalen Smartphones und Laptops ermöglicht wird.
(Vorgeschichte: Tether investiert in Axiym zur Erweiterung der Zahlungsinfrastruktur: Förderung der Integration von USDT in globale, regulatorische Zahlungssysteme)
(Hintergrund: Tether investiert branchenübergreifend in KI-Schlaftechnologie! Führungsinvestment bei Eight Sleep mit 50 Millionen USD, Bewertung steigt auf 1,5 Milliarden USD)

Inhaltsverzeichnis

Toggle

  • Die Magie der 1-Bit-Architektur: Smartphones „mit kleinem Einsatz Großes erreichen“
  • Praktische Testergebnisse: Erstaunliche Geschwindigkeit bei Samsung S25 und iPhone 16
  • Abschied von API-Schlüsseln, Entwicklung einer 100% privaten persönlichen KI

Im Bereich der künstlichen Intelligenz (KI) gilt das Training leistungsstarker Modelle traditionell als „Geldverbrennung“, stark abhängig von teuren NVIDIA-Systemen oder Cloud-Rechenleistung. Doch der Stablecoin-Riese Tether versucht, diese Regeln mit Technologie neu zu schreiben. Am 17. März kündigte Tether Data, die Techniksparte von Tether, die Einführung des weltweit ersten plattformübergreifenden BitNet LoRA-Feinabstimmungsframeworks für die QVAC (QuantumVerse Automatic Computer)-Plattform an.

Der Kern dieser Technologie liegt darin: Sie ermöglicht es, AI-Modelle mit „Billion-Parameter“-Größe direkt auf Smartphones für personalisiertes Lernen zu verwenden.

Die Magie der 1-Bit-Architektur: Smartphones „mit kleinem Einsatz Großes erreichen“

Dieser Durchbruch basiert auf Microsofts BitNet 1-Bit LLM-Architektur. Durch die Optimierung mit QVAC Fabric werden Speicherbedarf und Rechenaufwand des BitNet-Modells auf ein Minimum reduziert. Laut Ankündigung unterstützt das Framework nicht nur gängige NVIDIA-GPUs, sondern ist auch vollständig kompatibel mit Intel-, AMD-, Apple M-Serie-Chips sowie mobilen Adreno (Android), Mali und Apple Bionic GPUs.

Das bedeutet, dass KI, die früher nur in Rechenzentren lief, jetzt auf deinem Smartphone für „Low-Rank-Adaptation (LoRA)“ Feinabstimmungen durchgeführt werden kann. Tether betont, dass diese Technik es ermöglicht, Modelle, die doppelt so groß sind wie herkömmliche Q4-quantisierte Modelle, auf Edge-Geräten zu verarbeiten – mit maximaler Speichereffizienz.

Praktische Testergebnisse: Erstaunliche Geschwindigkeit bei Samsung S25 und iPhone 16

Das Tether-Entwicklungsteam teilte in der Ankündigung beeindruckende Testergebnisse, die die praktische Leistungsfähigkeit des Frameworks auf modernen Smartphones demonstrieren:

  • 1,25 Milliarden Parameter Modell: Feinabstimmung eines Datensatzes mit 300 medizinischen Dokumenten auf dem Samsung S25 in nur ca. 10 Minuten.
  • 10 Milliarden (1B) Parameter Modell: Für die gleiche Feinabstimmung auf dem Samsung S25 1 Stunde 18 Minuten, auf dem iPhone 16 1 Stunde 45 Minuten.
  • Extremtest: Das Entwicklerteam gelang es, auf dem iPhone 16 ein 13 Milliarden (13B) Parameter großes Modell zu feinabstimmen, was die physikalischen Grenzen mobiler Geräte ausreizt.

Abschied von API-Schlüsseln, Entwicklung einer 100% privaten persönlichen KI

Tether-CEO Paolo Ardoino betonte stets: „Wenn du einen API-Schlüssel brauchst, um KI zu nutzen, gehört sie nicht wirklich dir.“ Das Kernprinzip von QVAC ist „Local-first“ (lokale Priorität).

Mit dem BitNet LoRA-Framework können Nutzer KI direkt auf lokalen E-Mails, Notizen und Nachrichten trainieren, ohne Daten in die Cloud hochzuladen. Das beseitigt nicht nur Bedenken hinsichtlich des Missbrauchs sensibler Daten durch Unternehmen, sondern bricht auch das Monopol weniger großer Player bei KI-Entwicklung. Derzeit ist QVAC Fabric LLM als Open-Source-Software (Apache 2.0 Lizenz) veröffentlicht, mit vorgefertigten Adaptern auf Hugging Face, sodass Entwickler weltweit sofort mit dieser Edge-Computing-Revolution starten können.

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare