Google 上架免費 AI 聽寫「Edge Eloquent」:採用 Gemma 手機端運作無需連網,iOS 首發

動區BlockTempo

Google 本週悄悄在 iOS App Store 上架免費離線 AI 聽寫應用程式「AI Edge Eloquent」,採用端側 Gemma ASR 模型,音訊完全不離開裝置,且罕見地在 Android 之前先登陸 iOS 平台。
(前情提要:Google 發布最聰明開放模型 Gemma 4!全面改採 Apache 2.0 授權,效能直逼大型閉源 AI)
(背景補充:打破輝達壟斷? Google地表最強AI模型「Gemma 3」用1顆H100,擊敗DeepSeek、OpenAI)

本文目錄

Toggle

  • 說話即轉文字,開口就能用
  • iOS 先行 Android,Google 的反常操作
  • Gemma 走進日常:端側 AI 的真實場景驗證

沒有發布會、沒有任何官方公告,Google 就這樣在本週稍早,悄悄把「AI Edge Eloquent」推上了 iOS App Store。這款完全免費的 AI 聽寫應用程式,主打離線語音辨識,背後跑的是 Google 自家的 Gemma 端側 ASR(自動語音辨識)模型,所有音訊處理都在裝置本機完成,不需要連網。

說話即轉文字,開口就能用

「AI Edge Eloquent」的操作邏輯很直覺:開啟 App 後對著麥克風說話,畫面即時顯示文字與聲波波形,停止錄音後,App 會自動過濾「嗯」「啊」等口語贅詞、修正斷句,把口說內容整理成乾淨、可直接使用的文字,並自動複製到剪貼簿。

隱私設計也是這款 App 的核心賣點之一。在純離線模式下,音訊資料不會離開使用者的 iPhone,不傳送至任何伺服器。Google 也提供「雲端模式」選項:語音辨識仍在裝置端完成,只將識別後的文字(而非原始音訊)送到 Gemini 雲端模型進一步清理,品質更高。

整套服務完全免費,無訂閱費、無使用量上限。

iOS 先行 Android,Google 的反常操作

同時科技媒體注意到一個罕見現象:Google 的產品幾乎都是先在 Android 上線,特別是涉及端側 AI 的功能,通常會搭配 Pixel 裝置與 Gemini Nano 模型優先推出。這次「AI Edge Eloquent」反其道而行,App Store 描述中甚至直接寫明 Android 版本即將推出。

分析人士對此有兩種解讀。第一種是市場測試說:Google 可能刻意選擇 iOS 這個「非主場」進行實驗,在不干擾 Android 生態的前提下,評估消費者對端側 AI 聽寫的接受度與使用習慣。

第二種是技術就緒說:iOS 版的 Gemma ASR 模型可能在最佳化進度上比 Android 版更早達到可用標準,Google 選擇直接上架而非等到兩平台同步。

Gemma 走進日常:端側 AI 的真實場景驗證

從技術角度看,「AI Edge Eloquent」的意義不只是一款聽寫工具。Gemma 是 Google 的開源輕量級 AI 模型系列,設計初衷就是在行動裝置等資源受限的環境中高效運作;AI Edge 則是 Google 讓開發者在裝置端執行機器學習模型的框架。

這款 App 等於是把 Gemma 的端側推理能力,搬進了消費者的日常使用情境。

對開發者而言,AI Edge Eloquent 也是一個參考樣板:展示了 Gemma 模型在消費級產品中的落地方式,以及離線與雲端混合架構如何在隱私與品質之間取得平衡。

免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見聲明
留言
0/400
暫無留言