斯坦福大學發佈 AI 基礎模型“透明度指標”,Llama 2 以 54% 居首但“不及格”

巴比特_

據 IT 之家 10 月 20 日報導,斯坦福大學日前發佈了 AI 基礎模型“透明度指標”,其中顯示指標最高的是 Meta 的 Lama 2,但相關“透明度”也只有 54%,因此研究人員認為,市面上幾乎所有 AI 模型,都“缺乏透明度”。

據悉,這一研究是由 HAI 基礎模型研究中心(CRFM)的負責人 Rishi Bommasani 所主導,調查了海外最流行的 10 款基礎模型。 Rishi Bommasani 認為,“缺乏透明度”一直是 AI 行業所面臨的問題,在具體模型“透明度指標”方面,IT 之家發現,相關評估內容主要圍繞“模型訓練數據集版權”、“訓練模型所用的運算資源”、“模型生成內容的可信度”、“模型自身能力”、“模型被誘導生成有害內容的風險”、“使用模型的使用者隱私性”等展開,共計 100 項。

最終調查情況顯示,Meta 的 Lama 2 以 54% 的透明度居冠,而 OpenAI 的 GPT-4 透明度只有 48%,谷歌的 PaLM 2 則以 40% 排名第五。

查看原文
免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見聲明
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)