Khi những lo ngại về bảo mật AI ngày càng tăng, OpenAI đã bắt đầu tuyển dụng các vị trí cấp cao mới để thăm dò và ứng phó với những rủi ro tiềm ẩn do mức độ phát triển công nghệ cao gây ra. Vị trí này, có tiêu đề “Trưởng bộ phận Chuẩn bị”, sẽ đảm nhận vai trò trung tâm là xác định trước các mối nguy tiềm ẩn từ các mô hình AI, xây dựng các chính sách nội bộ và ảnh hưởng đến cách phát hành các mô hình.
Vị trí này sẽ dẫn dắt việc triển khai “Khung sẵn sàng” của OpenAI và sẽ chịu trách nhiệm giám sát và đánh giá khả năng lạm dụng AI, các mối đe dọa an ninh mạng và các tác động xã hội rộng lớn hơn đối với xã hội và hệ thống. Khuôn khổ thực tế được liên kết chặt chẽ với các bộ phận nghiên cứu, chính sách và sản phẩm của OpenAI, đồng thời có tác động đáng kể đến thời gian và phương pháp phát hành mô hình mới.
Việc tuyển dụng sẽ được thực hiện dưới bộ phận Hệ thống bảo mật và người phụ trách sẽ chịu trách nhiệm xây dựng mô hình mối đe dọa, đo lường khả năng chức năng, xây dựng tiêu chuẩn rủi ro, thiết lập ràng buộc triển khai, v.v. OpenAI nói rõ rằng vị trí trưởng bộ phận chuẩn bị là vô cùng khắt khe và phải có kinh nghiệm làm việc thực tế trong các lĩnh vực hệ thống kỹ thuật quy mô lớn, quản lý khủng hoảng, bảo mật và quản trị. Mức lương cơ bản hàng năm là 550.000 đô la (khoảng 790 triệu won), ngoài quyền chọn cổ phiếu.
Việc OpenAI tăng cường sắp xếp nhân sự cũng là một chiến lược để lấp đầy các vị trí trống sau khi thay đổi lãnh đạo nội bộ. Vào giữa năm 2024, cựu trưởng bộ phận chuẩn bị, Alexandre Madrid, đã từ chức, và Joaquín Quiñonero Candela và Lillian Ong, những người tiếp quản trách nhiệm, cũng lần lượt rời đi hoặc chuyển sang các bộ phận khác, dẫn đến một vị trí trống dài hạn trong tổ chức chuẩn bị.
Giám đốc điều hành OpenAI Sam Altman cũng nhấn mạnh tầm quan trọng của vị trí này trong một cuộc phỏng vấn gần đây, nói rằng “khi khả năng của mô hình tăng lên, tổ chức chuẩn bị là một trong những vai trò quan trọng nhất trong nội bộ”. Ông nói rằng chỉ khi các hệ thống liên quan hoạt động tốt, các tác dụng phụ xã hội có thể xảy ra của trí tuệ nhân tạo mới có thể được quản lý hiệu quả.
Những lo ngại rộng rãi trong ngành về việc lạm dụng AI cũng cung cấp hỗ trợ theo ngữ cảnh cho việc tuyển dụng này. Đặc biệt, các cuộc tấn công mạng dựa trên AI, khai thác phần mềm và tác động đến sức khỏe tâm thần của các nhóm người dùng được liệt kê là những rủi ro lớn. OpenAI đã phát hành nội dung hàng triệu người dùng trút nỗi đau tâm lý nghiêm trọng thông qua ChatGPT vào tháng 10 năm ngoái để thể hiện tinh thần trách nhiệm của mình đối với sự giao thoa giữa AI và các vấn đề sức khỏe tâm thần. Vào thời điểm đó, công ty lưu ý rằng ChatGPT có thể không phải là nguồn gốc của nỗi đau, nhưng ghi nhận sự gia tăng các trường hợp chia sẻ nỗi đau nhạy cảm với AI.
Động thái của OpenAI đang được các cơ quan quản lý và ngành công nghiệp xem xét kỹ lưỡng. Trong bối cảnh ảnh hưởng của công nghệ AI tiên tiến mở rộng nhanh chóng, Tổ chức Sẵn sàng Tăng cường không chỉ được coi là sự bổ sung đơn thuần cho nhân lực mà còn được hiểu là một bước mở đường để khôi phục niềm tin và đạt được sự chấp nhận của xã hội trên toàn hệ sinh thái AI.