‏OpenAI: 中国のDeepSeek社はDistillationを利用してChatGPTや米国のモデルから利益を得ている…それはどういう意味か?



OpenAI、ChatGPTの開発者であるAI企業は、中国のAI企業DeepSeekを「OpenAIや他の米国の先進的な研究所が開発した能力を無料で利用しようとする継続的な努力」と非難した。

どうやってそれを行っているのか?

OpenAIは米国の立法者に対し、公式の警告で次のように述べている。DeepSeekの従業員は:

・OpenAIのモデルへのアクセス制限を回避する方法を開発している。

・第三者のネットワークを通じてモデルにアクセスし、出所を隠している。

・米国のモデルの出力をDistillation目的で取得するためのコードを開発している。

Distillationとは何か?

これはAIモデルの訓練に用いられる手法で、大規模で強力なモデル(「教師モデル」)が、新しい小型モデル(「生徒モデル」)の出力の質を評価する。

この方法により、進化したモデルから新しいモデルへ経験と知識を伝達し、より効率的かつ低コストで学習させることができる。

なぜこの問題はワシントンを不安にさせるのか?

DeepSeek-V3やDeepSeek-R1のモデルは市場で話題となり、最先端の米国モデルに対抗できる強力な競争相手とみなされている。

OpenAIは、中国の大型モデルは「新しいモデルの訓練と展開において重要なステップを省略している」と考えており、これがイノベーションと安全性を脅かすと指摘している。

米国は、中国が規制にもかかわらず、AIの世界的な競争に追いつくことを恐れている。
AI0.5%
AIA-0.9%
AIC-0.22%
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン