À medida que as preocupações com a segurança da inteligência artificial aumentam, a OpenAI começou a recrutar novas posições de alto nível para detectar e responder antecipadamente aos riscos potenciais decorrentes do avanço tecnológico. A posição é intitulada “Responsável por Assuntos de Preparação” e desempenhará um papel central na identificação prévia dos perigos que os modelos de IA podem causar, na formulação de políticas internas e na influência na forma de lançamento dos modelos.
Este cargo liderará a implementação da “Estrutura de Preparação” da OpenAI, sendo responsável por monitorar e avaliar a possibilidade de uso indevido da IA na sociedade e nos sistemas, ameaças à segurança cibernética e impactos sociais amplos. A estrutura prática estará estreitamente ligada aos departamentos de pesquisa, políticas e produtos da OpenAI, influenciando de forma substancial a data de lançamento e a metodologia de novos modelos.
A contratação será realizada pelo departamento de sistemas de segurança, cujo responsável terá a responsabilidade geral pela construção de modelos de ameaça, medição de capacidades funcionais, definição de padrões de risco e estabelecimento de condições de restrição de implantação. A OpenAI deixou claro que a posição de Responsável por Assuntos de Preparação exige um nível extremamente alto de qualificação, sendo necessário ter experiência prática em sistemas tecnológicos de grande escala, gestão de crises, segurança e governança. O salário base é de 55 mil dólares por ano (aproximadamente 7,9 bilhões de won sul-coreanos), além de opções de ações.
Esta iniciativa de reforço de pessoal pela OpenAI também é uma estratégia para preencher lacunas após mudanças na liderança interna. Em meados de 2024, o ex-responsável por Assuntos de Preparação, Alexander Madrid, deixou o cargo, sendo sucedido por Joaquin Ginerio Candra e Lillian Ong, que também deixaram seus cargos ou foram transferidos para outros departamentos, resultando em uma lacuna prolongada na organização de preparação.
O CEO da OpenAI, Sam Altman, também destacou a importância dessa posição em uma entrevista recente, afirmando que “à medida que a capacidade dos modelos aumenta, a organização de preparação é uma das funções mais importantes internamente”. Ele afirmou que somente com sistemas operando adequadamente é possível gerenciar efetivamente os efeitos colaterais sociais que a inteligência artificial pode provocar.
As preocupações gerais do setor com o uso indevido da IA também fornecem um contexto para essa contratação. Em particular, ataques cibernéticos baseados em IA, exploração de vulnerabilidades de software e impactos na saúde mental dos usuários foram listados como principais riscos. Em outubro do ano passado, a OpenAI divulgou que milhões de usuários relataram dores emocionais graves ao usar o ChatGPT, destacando sua responsabilidade na interseção entre IA e saúde mental. Na ocasião, a empresa afirmou que o ChatGPT pode não ser a causa da dor, mas observou um aumento significativo nos casos de compartilhamento de informações sensíveis relacionadas à IA.
As ações da OpenAI estão sob forte atenção de órgãos reguladores e do setor. Com a influência da tecnologia de ponta de IA crescendo rapidamente, fortalecer a organização de preparação é visto não apenas como uma simples reposição de recursos humanos, mas também como uma preparação para restaurar a confiança no ecossistema de IA e obter aceitação social.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
OpenAI, contrata responsável dedicado para lidar com ameaças de IA… com um salário anual de apenas 7,9 bilhões de won coreanos
À medida que as preocupações com a segurança da inteligência artificial aumentam, a OpenAI começou a recrutar novas posições de alto nível para detectar e responder antecipadamente aos riscos potenciais decorrentes do avanço tecnológico. A posição é intitulada “Responsável por Assuntos de Preparação” e desempenhará um papel central na identificação prévia dos perigos que os modelos de IA podem causar, na formulação de políticas internas e na influência na forma de lançamento dos modelos.
Este cargo liderará a implementação da “Estrutura de Preparação” da OpenAI, sendo responsável por monitorar e avaliar a possibilidade de uso indevido da IA na sociedade e nos sistemas, ameaças à segurança cibernética e impactos sociais amplos. A estrutura prática estará estreitamente ligada aos departamentos de pesquisa, políticas e produtos da OpenAI, influenciando de forma substancial a data de lançamento e a metodologia de novos modelos.
A contratação será realizada pelo departamento de sistemas de segurança, cujo responsável terá a responsabilidade geral pela construção de modelos de ameaça, medição de capacidades funcionais, definição de padrões de risco e estabelecimento de condições de restrição de implantação. A OpenAI deixou claro que a posição de Responsável por Assuntos de Preparação exige um nível extremamente alto de qualificação, sendo necessário ter experiência prática em sistemas tecnológicos de grande escala, gestão de crises, segurança e governança. O salário base é de 55 mil dólares por ano (aproximadamente 7,9 bilhões de won sul-coreanos), além de opções de ações.
Esta iniciativa de reforço de pessoal pela OpenAI também é uma estratégia para preencher lacunas após mudanças na liderança interna. Em meados de 2024, o ex-responsável por Assuntos de Preparação, Alexander Madrid, deixou o cargo, sendo sucedido por Joaquin Ginerio Candra e Lillian Ong, que também deixaram seus cargos ou foram transferidos para outros departamentos, resultando em uma lacuna prolongada na organização de preparação.
O CEO da OpenAI, Sam Altman, também destacou a importância dessa posição em uma entrevista recente, afirmando que “à medida que a capacidade dos modelos aumenta, a organização de preparação é uma das funções mais importantes internamente”. Ele afirmou que somente com sistemas operando adequadamente é possível gerenciar efetivamente os efeitos colaterais sociais que a inteligência artificial pode provocar.
As preocupações gerais do setor com o uso indevido da IA também fornecem um contexto para essa contratação. Em particular, ataques cibernéticos baseados em IA, exploração de vulnerabilidades de software e impactos na saúde mental dos usuários foram listados como principais riscos. Em outubro do ano passado, a OpenAI divulgou que milhões de usuários relataram dores emocionais graves ao usar o ChatGPT, destacando sua responsabilidade na interseção entre IA e saúde mental. Na ocasião, a empresa afirmou que o ChatGPT pode não ser a causa da dor, mas observou um aumento significativo nos casos de compartilhamento de informações sensíveis relacionadas à IA.
As ações da OpenAI estão sob forte atenção de órgãos reguladores e do setor. Com a influência da tecnologia de ponta de IA crescendo rapidamente, fortalecer a organização de preparação é visto não apenas como uma simples reposição de recursos humanos, mas também como uma preparação para restaurar a confiança no ecossistema de IA e obter aceitação social.