Зі зростанням занепокоєння щодо безпеки штучного інтелекту OpenAI почала наймати нові високопосадові кадри для попереднього виявлення та реагування на потенційні ризики, що виникають у зв’язку з високорозвиненими технологіями. Посада називається «Керівник з підготовчих заходів» і виконує ключову роль у попередньому визначенні потенційної шкоди, яку можуть спричинити моделі ШІ, розробці внутрішніх політик та впливі на спосіб випуску моделей.
Ця посада очолить реалізацію «Рамкової системи підготовки» OpenAI, відповідатиме за моніторинг і оцінку можливих зловживань ШІ у суспільстві та системах, кібербезпекових загроз і широких соціальних наслідків. Практична структура тісно пов’язана з дослідницьким, політичним і продуктовим відділами OpenAI і має суттєвий вплив на час і спосіб випуску нових моделей.
Найм відбуватиметься в рамках відділу систем безпеки, а відповідальний за цю посаду буде загалом відповідати за побудову моделей загроз, вимірювання функціональних можливостей, розробку стандартів ризиків і встановлення обмежень для розгортання. OpenAI чітко заявила, що ця посада вимагає високого рівня кваліфікації, з необхідністю досвіду роботи з масштабними технічними системами, управління кризами, безпеки та управління. Базова річна зарплата становить 550 000 доларів США (приблизно 7,9 мільярдів вон), додатково надаються опціони на акції.
Це посилення кадрового складу є стратегічним кроком для заповнення вакантних посад після змін у внутрішньому керівництві. У середині 2024 року колишній керівник з підготовчих заходів Александр Мадрид залишив посаду, а на його місце прийшли Хоакін Гіньонеро-Кандра і Ліліан Онг, які також пішли у відставку або були переведені до інших відділів, що спричинило тривалий вакуум у структурі підготовки.
Генеральний директор OpenAI Сем Альтман нещодавно під час інтерв’ю підкреслив важливість цієї посади, зазначивши: «Зі зростанням можливостей моделей, організація підготовки є однією з найважливіших внутрішніх ролей». Він додав, що лише за умови належної роботи систем можна ефективно управляти соціальними побічними ефектами штучного інтелекту.
Загальні побоювання галузі щодо зловживань ШІ також створюють підґрунтя для цього найму. Зокрема, основними ризиками вважаються кібератаки на базі ШІ, використання вразливостей програмного забезпечення та вплив на психологічний стан користувачів. У жовтні минулого року OpenAI оприлюднила інформацію про мільйони користувачів, які через ChatGPT висловлювали серйозний психологічний біль, що підкреслює їхню відповідальність за перетин ШІ та проблем психологічного здоров’я. Тоді компанія зазначила, що ChatGPT не є джерелом болю, але зафіксовано стрімке зростання випадків обміну чутливою інформацією з ШІ.
Заходи OpenAI отримують пильну увагу регуляторів і галузі. У контексті швидкого зростання впливу передових технологій штучного інтелекту посилення підготовчих структур розглядається не лише як кадрове поповнення, а й як стратегія відновлення довіри до екосистеми ШІ і здобуття суспільної підтримки.