As notícias de IA que saíram da OpenAI esta semana têm uma aresta particularmente cortante: a empresa lançou uma Bolsa de Segurança remunerada, oferecendo subsídios semanais de $3,850 a investigadores externos que estudam o que pode correr mal com a IA avançada — anunciada poucas horas após uma investigação do The New Yorker relatar que a OpenAI dissolveu as suas equipas internas de segurança e retirou silenciosamente a palavra “safely” do seu enunciado de missão no IRS.
Resumo
A OpenAI anunciou a bolsa a 6 de abril como “um programa-piloto para apoiar investigação independente em segurança e alinhamento e desenvolver a próxima geração de talento”. O programa paga $3,850 por semana, mais de $200,000 anualizados, além de cerca de $15,000 em computação mensal e mentoria de investigadores da OpenAI. Os bolseiros trabalham a partir do espaço de trabalho Berkeley da Constellation ou remotamente, e as candidaturas terminam a 3 de maio. A bolsa não se limita a especialistas em IA — a OpenAI está a recrutar a partir da cibersegurança, das ciências sociais e da interação homem-computador, juntamente com a ciência da computação.
O timing é a história. A investigação de Ronan Farrow no The New Yorker, publicada no mesmo dia, documentou que a OpenAI tinha dissolvido três organizações internas consecutivas de segurança ao longo de 22 meses. A equipa de superalinhamento foi encerrada em maio de 2024, após as co-líderes Ilya Sutskever e Jan Leike terem saído. Leike escreveu na sua saída que “a cultura e os processos de segurança passaram para segundo plano face a produtos brilhantes”. A equipa de Preparação para AGI seguiu em outubro de 2024. A equipa de Alinhamento da Missão foi dissolvida em fevereiro de 2026, após apenas 16 meses. O The New Yorker também reportou que, quando um jornalista pediu para falar com investigadores de segurança existencial da OpenAI, um representante da empresa respondeu: “O que entende por segurança existencial? Isso não é, tipo, uma coisa.”
A bolsa não substitui explicitamente a infraestrutura interna. Os bolseiros recebem créditos de API e recursos de computação, mas não acesso a sistemas, posicionando o programa como financiamento de investigação a distância, em vez de uma reconstrução das equipas dissolvidas.
A agenda de investigação abrange sete áreas prioritárias: avaliação de segurança, ética, robustez, mitigação escalável, métodos de segurança que preservam a privacidade, supervisão agentica e domínios de utilização indevida de alta severidade. No final do programa, em fevereiro de 2027, cada bolseiro tem de produzir uma entrega substancial — um artigo, um benchmark ou um conjunto de dados. Não são exigidas credenciais académicas específicas; a OpenAI afirmou que dá prioridade à capacidade de investigação, ao discernimento técnico e à capacidade de execução.
Como a crypto.news tem relatado, a confiança nas promessas de segurança declaradas por empresas de IA de fronteira é um sinal de mercado que afecta a alocação de capital em toda a infraestrutura de IA, tokens de IA e os protocolos DePIN e de agentes de IA situados na interseção entre cripto e inteligência artificial. Como a crypto.news também notou, a trajetória de gastos da OpenAI e a credibilidade das suas prioridades operacionais são acompanhadas de perto por investidores que avaliam o sector da infraestrutura de IA — um sector com sobreposição crescente com sistemas baseados em blockchain. Se bolseiros externos, a trabalhar sem acesso interno, podem influenciar de forma significativa o desenvolvimento de modelos é uma questão que a investigação do primeiro grupo começará a responder no início de 2027.