По мере роста опасений по поводу безопасности ИИ OpenAI начала нанимать новых руководящих должностей для изучения и реагирования на потенциальные риски, связанные с высоким уровнем технологического развития. Должность под названием «Руководитель по готовности» будет занимать центральную роль в предварительном выявлении потенциальных опасностей от моделей ИИ, разработке внутренних политик и влиянии на то, как модели будут выпускаться.
Эта должность возглавит внедрение «Рамки готовности» OpenAI и будет отвечать за мониторинг и оценку потенциала злоупотреблений ИИ, угроз кибербезопасности и более широкого общественного воздействия на общество и системы. Сам фреймворк тесно связан с исследовательскими, политическими и продуктовыми отделами OpenAI и оказывает значительное влияние на сроки и способ выпуска новой модели.
Набор будет осуществляться в рамках отдела систем безопасности, и ответственный за создание моделирования угроз, измерение функциональных возможностей, формулирование стандартов риска, установку ограничений по развертыванию и т.д. OpenAI ясно дал понять, что должность руководителя подготовительных дел чрезвычайно требовательна и должна иметь практический опыт работы в областях крупномасштабных технических систем, управления кризисами, безопасности и управления. Базовая годовая зарплата составляет 550 000 долларов (около 790 миллионов вон), помимо опционов на акции.
Укрепление кадровых механизмов OpenAI также является стратегией заполнения вакансий после внутренних смен руководства. В середине 2024 года бывший руководитель подготовительного отдела Александр Мадрид ушёл в отставку, а Хоакин Киньонеро Кандела и Лиллиан Онг, взявшие на себя ответственность, также покинули или перешли в другие отделы соответственно, что привело к длительной вакантности в подготовительной организации.
Генеральный директор OpenAI Сэм Альтман также подчеркнул важность этой должности в недавнем интервью, заявив, что «по мере роста возможностей моделей организация по подготовке становится одной из самых важных внутренних ролей». Он отметил, что только при хорошей работе соответствующих систем возможные социальные побочные эффекты искусственного интеллекта можно эффективно контролировать.
Широко распространённые опасения отрасли по поводу злоупотребления ИИ также обеспечивают контекстную поддержку для такого найма. В частности, кибератаки на основе ИИ, эксплуатация программного обеспечения и влияние на психическое здоровье групп пользователей считаются основными рисками. В октябре прошлого года OpenAI выпустил контент миллионов пользователей, изливают сильную психологическую боль через ChatGPT, чтобы показать свою ответственность за пересечение ИИ и проблем психического здоровья. В то время компания отметила, что ChatGPT может и не быть источником боли, но отметила рост случаев передачи чувствительного стресса с помощью ИИ.
Шаг OpenAI находится под пристальным вниманием со стороны регуляторов и отрасли. В условиях стремительного роста влияния передовых технологий ИИ Организация повышенной готовности рассматривается не только как дополнение к рабочей силе, но и как основа для восстановления доверия и завоевания общественного признания в экосистеме ИИ.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
OpenAI, нанимает ответственного за борьбу с угрозами ИИ… только годовая зарплата достигает 7,9 миллиарда вон
По мере роста опасений по поводу безопасности ИИ OpenAI начала нанимать новых руководящих должностей для изучения и реагирования на потенциальные риски, связанные с высоким уровнем технологического развития. Должность под названием «Руководитель по готовности» будет занимать центральную роль в предварительном выявлении потенциальных опасностей от моделей ИИ, разработке внутренних политик и влиянии на то, как модели будут выпускаться.
Эта должность возглавит внедрение «Рамки готовности» OpenAI и будет отвечать за мониторинг и оценку потенциала злоупотреблений ИИ, угроз кибербезопасности и более широкого общественного воздействия на общество и системы. Сам фреймворк тесно связан с исследовательскими, политическими и продуктовыми отделами OpenAI и оказывает значительное влияние на сроки и способ выпуска новой модели.
Набор будет осуществляться в рамках отдела систем безопасности, и ответственный за создание моделирования угроз, измерение функциональных возможностей, формулирование стандартов риска, установку ограничений по развертыванию и т.д. OpenAI ясно дал понять, что должность руководителя подготовительных дел чрезвычайно требовательна и должна иметь практический опыт работы в областях крупномасштабных технических систем, управления кризисами, безопасности и управления. Базовая годовая зарплата составляет 550 000 долларов (около 790 миллионов вон), помимо опционов на акции.
Укрепление кадровых механизмов OpenAI также является стратегией заполнения вакансий после внутренних смен руководства. В середине 2024 года бывший руководитель подготовительного отдела Александр Мадрид ушёл в отставку, а Хоакин Киньонеро Кандела и Лиллиан Онг, взявшие на себя ответственность, также покинули или перешли в другие отделы соответственно, что привело к длительной вакантности в подготовительной организации.
Генеральный директор OpenAI Сэм Альтман также подчеркнул важность этой должности в недавнем интервью, заявив, что «по мере роста возможностей моделей организация по подготовке становится одной из самых важных внутренних ролей». Он отметил, что только при хорошей работе соответствующих систем возможные социальные побочные эффекты искусственного интеллекта можно эффективно контролировать.
Широко распространённые опасения отрасли по поводу злоупотребления ИИ также обеспечивают контекстную поддержку для такого найма. В частности, кибератаки на основе ИИ, эксплуатация программного обеспечения и влияние на психическое здоровье групп пользователей считаются основными рисками. В октябре прошлого года OpenAI выпустил контент миллионов пользователей, изливают сильную психологическую боль через ChatGPT, чтобы показать свою ответственность за пересечение ИИ и проблем психического здоровья. В то время компания отметила, что ChatGPT может и не быть источником боли, но отметила рост случаев передачи чувствительного стресса с помощью ИИ.
Шаг OpenAI находится под пристальным вниманием со стороны регуляторов и отрасли. В условиях стремительного роста влияния передовых технологий ИИ Организация повышенной готовности рассматривается не только как дополнение к рабочей силе, но и как основа для восстановления доверия и завоевания общественного признания в экосистеме ИИ.