Google hat eine Funktion zur Echtzeitübersetzung mit KI für Gemini angekündigt. Sie wurde von der ursprünglichen Android-Plattform auf iOS-Systeme erweitert und wird gleichzeitig in mehreren Märkten wie dem Vereinigten Königreich, Japan, Taiwan und Deutschland live geschaltet. Dieses Update zielt darauf ab, mithilfe mobiler Endgeräte und tragbarer Geräte einen Echtzeit-Übersetzungsdienst bereitzustellen, der über ein stärkeres Kontextverständnis verfügt und natürlicher klingt. Der größte Höhepunkt: Die App kann mit Bluetooth-Ohrhörern jeder beliebigen Marke verwendet werden, ohne auf Apple-Spezifikationen beschränkt zu sein.
iOS-APP für Echtzeitübersetzung kann mit Bluetooth-Kopfhörern jeder Marke kombiniert werden
Zuvor waren Echtzeitübersetzungsfunktionen bestimmter Marken häufig durch spezielles, nur dafür verfügbares Hardware-Equipment eingeschränkt. Googles „Earphone-Echtzeitübersetzung“-Funktion setzt hingegen auf eine offene Architektur. Nutzer müssen lediglich die Google-Übersetzer-App auf ihrem iPhone oder iPad herunterladen, um mit kabellosen Bluetooth-Kopfhörern jeder Marke zu arbeiten. Die neue Funktion kann geräteübergreifend genutzt werden, sodass iOS-Nutzer auch unterwegs in Echtzeit Informationen erhalten können. Die technische Grundlage wird durch das Gemini 3.1 Flash Live-Modell angetrieben. Dabei wird eine Verarbeitung mit geringer Latenz für Audio betont. Aktuell werden bereits mehr als 70 Sprachen unterstützt, wodurch der praktische Nutzen des Tools in internationalen Geschäfts- und persönlichen Reise-Szenarien deutlich gestärkt wird.
KI optimiert die Natürlichkeit der Sprachübersetzung
Im Vergleich zu traditioneller wortwörtlicher Übersetzung legt ein Übersetzungstool mit Gemini-Technologie stärker den Fokus auf semantische Analyse und das Beibehalten von Emotionen. Bei der Verarbeitung von Sprache geht das System nicht nur auf die Umwandlung von Text ein, sondern versucht außerdem, den Tonfall, die Betonung und den Rhythmus des ursprünglichen Sprechers zu simulieren, wodurch das Gefühl der Distanz, das maschinelle Sprachübertragungen verursachen können, reduziert wird. Bei der Verarbeitung von Redewendungen (Idioms) oder Slang kann die KI auf Grundlage des Kontexts genauere Übersetzungsvorschläge liefern und englische gebräuchliche Formulierungen so in Wörter übertragen, die die Bedeutung entsprechend der lokalen Kultur treffen.
Google Meet Sprachübersetzung erhält ein synchrones Update
Die Sprachübersetzungsfunktion ist offiziell für Google-Workspace-Nutzer und persönliche Konten im Rahmen des Google-AI-Programms verfügbar. Sie fügt dem Ton der Sprecher in Echtzeit eine Audio-Synchronisierung hinzu. So können die Teilnehmer nicht nur die Übersetzung in der Muttersprache hören, sondern auch die emotionale Einordnung des Sprechers verstehen. Aktuell wird eine bidirektionale Übersetzung zwischen Englisch und mehreren Sprachen unterstützt, darunter Spanisch, Französisch, Deutsch, Portugiesisch und Italienisch.
Multimodale Funktion unterstützt die Umgebungserfassung
Neben der Sprachkommunikation erweitert Google auch den Einsatzbereich multimodaler (Multimodal) KI. Mithilfe der „Echtzeit-Suche“-Funktion und des Google-Lens-Kamerabildes können Nutzer Schilder, Menüs oder Bedienungsanleitungen direkt anvisieren, um eine Echtzeitübersetzung zu erhalten und anschließend mit Gemini in die Details zu gehen. Beim Sprachenlernen hat die Google-Übersetzer-App außerdem die Funktion für mündliche Übungssequenzen erweitert und ein verbessertes Feedback-Mechanismus in 20 Ländern wie Taiwan, Schweden und Indien eingeführt. Das System kann konkrete Empfehlungen für die Aussprache der Nutzer geben und sie dabei unterstützen, ihre Sprachlernziele zu erreichen, indem es den Lernfortschritt verfolgt (z. B. die Anzahl der aufeinanderfolgenden Übungstage). So wird die personalisierte Lernerfahrung verbessert.
Smart Brillen mit Wearable-KI werden in der zweiten Jahreshälfte vorgestellt
Google wird mit Herstellern wie Samsung (Samsung) und Warby Parker zusammenarbeiten und plant, spätestens in der zweiten Jahreshälfte 2026 eine smarte Brille mit KI-Funktionen vorzustellen. Eine der Kernanwendungen des Produkts ist eine im Glas integrierte Anzeigetechnologie: Sie kann „Echtzeit-Untertitel“ im Blickfeld des Nutzers bereitstellen und Übersetzungstext direkt in die reale Umgebung einblenden. Die Entwicklung solcher tragbaren Geräte steht sinnbildlich dafür, dass sich die Übersetzungstechnologie von der reinen Anzeige auf dem Bildschirm weiterentwickelt hat hin zu einem servicebasierten Erfassen der Umgebung mit visueller und auditiver Integration. Aktuell befinden sich die Funktionen dieser Reihe noch in Tests und im schrittweisen Rollout. Danach wird sie basierend auf dem Nutzungsfeedback in den jeweiligen Ländern optimiert.
Dieser Artikel: Google kündigt Gemini-AI-Funktion zur Echtzeitübersetzung an, die zuerst auf iOS erscheint, erstmals bei 鏈新聞 ABMedia.