OpenAI: компанія DeepSeek з Китаю покладається на Distillation для використання ChatGPT та американських моделей.. що це означає?
Обвинувачила OpenAI, компанія штучного інтелекту та розробник ChatGPT, китайську компанію DeepSeek у «послідовних зусиллях безкоштовно використовувати можливості, які розробила OpenAI та інші провідні американські лабораторії».
Як вони це роблять?
OpenAI у офіційному попередженні американським законодавцям повідомила, що співробітники DeepSeek:
розробляють способи обходу обмежень доступу до моделей OpenAI,
доступають до моделей через сторонні мережі, що приховують їхнє джерело,
розробили програмний код для отримання вихідних даних американських моделей з метою Distillation.
Що таке технологія Distillation?
Це процес, який використовується при навчанні моделей штучного інтелекту, коли велика та потужна модель ("вчитель") оцінює якість відповідей, що виходять з нової та меншої моделі ("учень").
Таким чином, досвід і знання передаються від розвиненої моделі до нової, що дозволяє їй навчатися ефективніше та за меншими витратами.
Чому ця справа викликає занепокоєння у Вашингтоні?
Моделі DeepSeek-V3 та DeepSeek-R1 викликали ажіотаж на ринках, оскільки їх вважають сильним конкурентом найкращих американських моделей.
OpenAI вважає, що великі китайські моделі «скорочують важливі кроки при навчанні та безпечному розгортанні нових моделей», що загрожує інноваціям та безпеці.
США бояться, що Китай наздожене у світовій гонці штучного інтелекту, незважаючи на введені обмеження.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
OpenAI: компанія DeepSeek з Китаю покладається на Distillation для використання ChatGPT та американських моделей.. що це означає?
Обвинувачила OpenAI, компанія штучного інтелекту та розробник ChatGPT, китайську компанію DeepSeek у «послідовних зусиллях безкоштовно використовувати можливості, які розробила OpenAI та інші провідні американські лабораторії».
Як вони це роблять?
OpenAI у офіційному попередженні американським законодавцям повідомила, що співробітники DeepSeek:
розробляють способи обходу обмежень доступу до моделей OpenAI,
доступають до моделей через сторонні мережі, що приховують їхнє джерело,
розробили програмний код для отримання вихідних даних американських моделей з метою Distillation.
Що таке технологія Distillation?
Це процес, який використовується при навчанні моделей штучного інтелекту, коли велика та потужна модель ("вчитель") оцінює якість відповідей, що виходять з нової та меншої моделі ("учень").
Таким чином, досвід і знання передаються від розвиненої моделі до нової, що дозволяє їй навчатися ефективніше та за меншими витратами.
Чому ця справа викликає занепокоєння у Вашингтоні?
Моделі DeepSeek-V3 та DeepSeek-R1 викликали ажіотаж на ринках, оскільки їх вважають сильним конкурентом найкращих американських моделей.
OpenAI вважає, що великі китайські моделі «скорочують важливі кроки при навчанні та безпечному розгортанні нових моделей», що загрожує інноваціям та безпеці.
США бояться, що Китай наздожене у світовій гонці штучного інтелекту, незважаючи на введені обмеження.
$AI $AIA
$AIC