OpenAI, embauche un responsable dédié à la gestion des menaces liées à l'IA… avec un salaire annuel de 7,9 milliards de won coréens

TechubNews

Avec l’aggravation croissante des préoccupations concernant la sécurité de l’intelligence artificielle, OpenAI a commencé à recruter de nouveaux postes de haut niveau afin de détecter et d’anticiper les risques potentiels liés à l’évolution rapide de la technologie. Ce poste, intitulé « Responsable des affaires de préparation », jouera un rôle central dans l’identification préalable des dangers que les modèles d’IA pourraient causer, l’élaboration de politiques internes et l’influence sur la manière dont les modèles sont déployés.

Ce poste dirigera la mise en œuvre du « cadre de préparation » d’OpenAI, chargé de surveiller et d’évaluer la possibilité d’abus de l’IA sur la société et les systèmes, les menaces de cybersécurité ainsi que les impacts sociaux larges. Le cadre pratique sera étroitement lié aux départements de recherche, de politique et de produits d’OpenAI, ayant une influence substantielle sur la date et la manière de lancement des nouveaux modèles.

Ce recrutement sera effectué au sein du département des systèmes de sécurité, le responsable étant globalement chargé de la modélisation des menaces, de la mesure des capacités fonctionnelles, de l’établissement de normes de risque et de la définition des conditions de déploiement restrictives. OpenAI a clairement indiqué que ce poste de responsable des affaires de préparation exige des compétences très élevées, notamment une expérience pratique dans les systèmes technologiques à grande échelle, la gestion de crise, la sécurité et la gouvernance. Le salaire annuel de base est de 550 000 dollars (environ 7,9 milliards de won), avec en plus des options sur actions.

Cette initiative d’OpenAI pour renforcer ses ressources humaines s’inscrit également dans une stratégie visant à combler le vide laissé par le changement de leadership interne. À la mi-2024, l’ancien responsable des affaires de préparation, Alexander Madrid, a quitté ses fonctions, et ses successeurs, Joaquín Giniñero Candra et Lillian Ong, ont également quitté ou été transférés vers d’autres départements, ce qui a maintenu une longue période de vacance au sein de l’organisation de préparation.

Le PDG d’OpenAI, Sam Altman, a également souligné récemment l’importance de ce poste lors d’une interview, déclarant que « avec l’augmentation des capacités des modèles, l’organisation de préparation est l’un des rôles les plus importants en interne ». Il a ajouté que seul un système bien fonctionnel permet de gérer efficacement les effets secondaires sociaux potentiels de l’intelligence artificielle.

Les préoccupations généralisées de l’industrie concernant l’abus de l’IA ont également fourni un contexte pour ce recrutement. En particulier, les risques liés aux attaques cybernétiques basées sur l’IA, à l’exploitation de vulnérabilités logicielles et à l’impact sur la santé mentale des utilisateurs ont été identifiés comme des risques majeurs. En octobre dernier, OpenAI a publié que des millions d’utilisateurs avaient partagé des contenus exprimant de graves souffrances psychologiques via ChatGPT, illustrant ainsi sa conscience de la responsabilité à l’intersection de l’IA et de la santé mentale. À l’époque, l’entreprise a précisé que ChatGPT n’était pas nécessairement la cause de la douleur, mais a noté que le nombre de cas de partage de contenus sensibles liés à l’IA était en forte augmentation.

Les initiatives d’OpenAI attirent également l’attention des régulateurs et de l’industrie. Dans un contexte où l’influence des technologies d’IA de pointe s’accroît rapidement, le renforcement de l’organisation de préparation n’est pas seulement considéré comme un simple renfort en personnel, mais aussi comme une étape pour restaurer la confiance dans l’écosystème de l’IA et obtenir l’acceptation sociale.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire