A medida que aumentan las preocupaciones sobre la seguridad de la inteligencia artificial, OpenAI ha comenzado a reclutar nuevos puestos de alto nivel para detectar y abordar de antemano los riesgos potenciales que conlleva el desarrollo avanzado de la tecnología. Este puesto se denomina “Responsable de Asuntos de Preparación” y asumirá un papel central en la identificación previa de los posibles daños que puedan causar los modelos de IA, en la formulación de políticas internas y en influir en la forma en que se lanzan los modelos.
Este puesto liderará la implementación del “Marco de Preparación” de OpenAI, responsable de monitorear y evaluar la posibilidad de que la IA sea utilizada de manera indebida en la sociedad y los sistemas, amenazas a la ciberseguridad y el impacto social amplio, entre otros aspectos. El marco práctico está estrechamente vinculado con los departamentos de investigación, políticas y productos de OpenAI, y tendrá un impacto sustancial en la decisión sobre la fecha y la forma de lanzamiento de los nuevos modelos.
La contratación se realizará dentro del departamento de sistemas de seguridad, y el responsable será en general el encargado de construir modelos de amenazas, medir capacidades funcionales, establecer estándares de riesgo y definir condiciones de restricción en el despliegue. OpenAI ha declarado claramente que este puesto de responsable de asuntos de preparación requiere un nivel muy alto, y que es imprescindible contar con experiencia práctica en sistemas tecnológicos a gran escala, gestión de crisis, seguridad y gobernanza. El salario base es de 55.000 dólares anuales (aproximadamente 7.9 mil millones de wones), además de ofrecer opciones sobre acciones.
Este fortalecimiento en la estructura de personal de OpenAI también forma parte de una estrategia para cubrir vacíos tras cambios en el liderazgo interno. A mediados de 2024, el anterior responsable de asuntos de preparación, Alexander Madrid, dejó su puesto, y posteriormente Joaquín Giniñero Candra y Lillian Ong, quienes asumieron responsabilidades, también se fueron o fueron transferidos a otros departamentos, lo que ha provocado una prolongada vacancia en la organización de preparación.
El CEO de OpenAI, Sam Altman, también enfatizó en una entrevista reciente la importancia de este puesto, afirmando que “a medida que aumentan las capacidades de los modelos, la organización de preparación es uno de los roles más importantes internos”. Indicó que solo si los sistemas relacionados funcionan bien, se podrá gestionar eficazmente los efectos sociales potenciales de la inteligencia artificial.
Las preocupaciones generalizadas en la industria sobre el uso indebido de la IA también respaldan esta contratación. En particular, los ataques cibernéticos basados en IA, la explotación de vulnerabilidades de software y el impacto en la salud mental de los usuarios se consideran riesgos principales. En octubre del año pasado, OpenAI hizo público que millones de usuarios compartieron contenidos que expresaban sufrimiento psicológico grave a través de ChatGPT, con el fin de reflejar su conciencia de responsabilidad en la intersección entre IA y problemas de salud mental. En ese momento, la compañía señaló que ChatGPT no era necesariamente la causa del sufrimiento, pero que los casos de compartir información sensible con IA estaban en aumento.
Las medidas de OpenAI están siendo observadas de cerca por los reguladores y la industria. En un contexto donde la influencia de las tecnologías de IA de vanguardia se expande rápidamente, fortalecer la organización de preparación no solo se ve como un simple refuerzo de personal, sino también como un paso para restaurar la confianza en todo el ecosistema de IA y obtener la aceptación social.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
OpenAI, contrata responsable a tiempo completo para la gestión de amenazas de IA… con un salario anual de 7.9 mil millones de won coreanos
A medida que aumentan las preocupaciones sobre la seguridad de la inteligencia artificial, OpenAI ha comenzado a reclutar nuevos puestos de alto nivel para detectar y abordar de antemano los riesgos potenciales que conlleva el desarrollo avanzado de la tecnología. Este puesto se denomina “Responsable de Asuntos de Preparación” y asumirá un papel central en la identificación previa de los posibles daños que puedan causar los modelos de IA, en la formulación de políticas internas y en influir en la forma en que se lanzan los modelos.
Este puesto liderará la implementación del “Marco de Preparación” de OpenAI, responsable de monitorear y evaluar la posibilidad de que la IA sea utilizada de manera indebida en la sociedad y los sistemas, amenazas a la ciberseguridad y el impacto social amplio, entre otros aspectos. El marco práctico está estrechamente vinculado con los departamentos de investigación, políticas y productos de OpenAI, y tendrá un impacto sustancial en la decisión sobre la fecha y la forma de lanzamiento de los nuevos modelos.
La contratación se realizará dentro del departamento de sistemas de seguridad, y el responsable será en general el encargado de construir modelos de amenazas, medir capacidades funcionales, establecer estándares de riesgo y definir condiciones de restricción en el despliegue. OpenAI ha declarado claramente que este puesto de responsable de asuntos de preparación requiere un nivel muy alto, y que es imprescindible contar con experiencia práctica en sistemas tecnológicos a gran escala, gestión de crisis, seguridad y gobernanza. El salario base es de 55.000 dólares anuales (aproximadamente 7.9 mil millones de wones), además de ofrecer opciones sobre acciones.
Este fortalecimiento en la estructura de personal de OpenAI también forma parte de una estrategia para cubrir vacíos tras cambios en el liderazgo interno. A mediados de 2024, el anterior responsable de asuntos de preparación, Alexander Madrid, dejó su puesto, y posteriormente Joaquín Giniñero Candra y Lillian Ong, quienes asumieron responsabilidades, también se fueron o fueron transferidos a otros departamentos, lo que ha provocado una prolongada vacancia en la organización de preparación.
El CEO de OpenAI, Sam Altman, también enfatizó en una entrevista reciente la importancia de este puesto, afirmando que “a medida que aumentan las capacidades de los modelos, la organización de preparación es uno de los roles más importantes internos”. Indicó que solo si los sistemas relacionados funcionan bien, se podrá gestionar eficazmente los efectos sociales potenciales de la inteligencia artificial.
Las preocupaciones generalizadas en la industria sobre el uso indebido de la IA también respaldan esta contratación. En particular, los ataques cibernéticos basados en IA, la explotación de vulnerabilidades de software y el impacto en la salud mental de los usuarios se consideran riesgos principales. En octubre del año pasado, OpenAI hizo público que millones de usuarios compartieron contenidos que expresaban sufrimiento psicológico grave a través de ChatGPT, con el fin de reflejar su conciencia de responsabilidad en la intersección entre IA y problemas de salud mental. En ese momento, la compañía señaló que ChatGPT no era necesariamente la causa del sufrimiento, pero que los casos de compartir información sensible con IA estaban en aumento.
Las medidas de OpenAI están siendo observadas de cerca por los reguladores y la industria. En un contexto donde la influencia de las tecnologías de IA de vanguardia se expande rápidamente, fortalecer la organización de preparación no solo se ve como un simple refuerzo de personal, sino también como un paso para restaurar la confianza en todo el ecosistema de IA y obtener la aceptación social.