Percebi uma interessante regularidade no Vale do Silício — lá surgem constantemente novos «profetas», que nos falam do apocalipse e ao mesmo tempo nos vendem a salvação. Sam Altman é simplesmente o modelo mais bem-sucedido dessa cadeia de produção.



Voltando a 2016. The New Yorker escreveu um artigo sobre ele, quando tinha 31 anos. Na altura, já era presidente do Y Combinator e, ao mesmo tempo, acumulava armas, ouro, iodo para proteção contra radiação nuclear. Tinha duas malas de evacuação e um terreno em Big Sur, de onde podia partir rapidamente de avião. Dez anos depois, tornou-se aquele que mais grita sobre o perigo da IA para a humanidade — e ao mesmo tempo acelera-o.

Aqui está a essência do seu modelo de negócio: apresentar tudo como uma guerra sagrada pela sobrevivência da humanidade. Ele aperfeiçoou isso ainda no YC, transformando uma pequena oficina numa enorme império. Depois, transferiu essa tática para a OpenAI. Fala sobre «riscos existenciais» da IA, compara-os com uma guerra nuclear, diz ao Senado que as pessoas devem temer — e cada palavra sua vira manchete. Publicidade gratuita através do medo controlado.

E depois propõe uma solução: Worldcoin. Uma esfera prateada, que escaneia a íris para distribuir dinheiro na era da IA. Parece uma salvação, mas na prática rapidamente levantou suspeitas — mais de dez países suspenderam o projeto por questões de privacidade. Mas para Altman, isso não é o mais importante. O mais importante é que ele se posicionou como o único que tem a resposta.

Quanto à regulamentação — ele é um mestre do golpe. Em 2023, falou ao Congresso e pediu: «Regulem-nos, por favor». Propôs um sistema de licenças que cortaria a concorrência. Mas quando Google e Anthropic avançaram na tecnologia, sua posição mudou. Agora diz que uma regulamentação rígida sufoca a inovação. Quando estava na frente — clamava por regras. Quando perdeu a vantagem — clamava por liberdade.

Por trás disso, estava a transformação da OpenAI. Fundada como uma organização sem fins lucrativos com a missão de «garantir a segurança do AGI». Em 2024, a palavra «segurança» foi silenciosamente removida da missão. As receitas dispararam de dezenas de milhões em 2022 para mais de 10 bilhões em 2024. A avaliação da empresa cresceu de 29 bilhões para 100 bilhões.

Lembram-se de novembro de 2023? Foi afastado do conselho por «comunicação de má-fé». Descobriu-se que escondia o controlo sobre um fundo de risco, mentia sobre os processos de segurança, até sobre o lançamento do ChatGPT, que o conselho soube pelo Twitter. Qualquer uma dessas violações deveria ter custado o seu lugar. Mas não. 95% dos funcionários assinaram uma petição, a Microsoft apoiou-o, e ele voltou com ainda mais poder. Demitiu quase todo o conselho.

Por quê? Porque ele não é um CEO comum — é um «líder carismático», na compreensão de Max Weber. Seus seguidores acreditam não nas regras, mas nele. Quando o desafiam, defendem-no. Após seu retorno, a equipe de segurança da OpenAI foi dissolvida. O principal cientista, que iniciou sua demissão, saiu. Em maio de 2024, o chefe de segurança escreveu no Twitter: «A cultura de segurança foi sacrificada em nome de produtos brilhantes».

Mas ele não está sozinho. Musk fala sobre o perigo da IA, mas a Tesla é a maior empresa de robótica. Zuckerberg gastou 90 bilhões na metaverso, depois virou-se para a AGI. Peter Thiel investe em empresas sobre a singularidade e constrói refúgios na Nova Zelândia. A Palantir, sua empresa, foi o «cérebro» das operações contra o Irã no início de 2026, integrando dados de satélites e drones via Claude.

Cada um desempenha um duplo papel — alerta para o apocalipse e ao mesmo tempo o cria. Não é uma dissociação de personalidade, é um modelo de negócio.

Agora, sobre sua fortuna. Sempre disse que não possui ações da OpenAI e trabalha por amor. Mas a Bloomberg calculou: seu patrimônio pessoal é cerca de 2 bilhões de dólares. Isso vem de investimentos — Stripe lhe rendeu centenas de milhões, Reddit também. Investiu na Helion, uma empresa de fusão nuclear, dizia que o futuro da IA depende da energia, e depois a OpenAI assinou um grande contrato de energia com a Helion.

Ele não possui ações diretas da OpenAI, mas construiu ao seu redor um enorme império de investimentos. Cada pregação sobre o futuro da humanidade aumenta o valor desse império. O patrimônio de Sam Altman cresce não pelo salário, mas por essa arquitetura de interesses.

Voltando à mochila de emergência com armas, ouro, antibióticos e terra em Big Sur. Ele nunca escondeu isso. O kit de evacuação é real, o bunker é real, a obsessão pelo apocalipse é real. Mas ele é justamente quem acelera o apocalipse. Não há contradição — na lógica dele, o apocalipse não precisa ser parado, basta ocupar uma posição vantajosa com antecedência.

Em fevereiro de 2026, anunciou uma linha vermelha — não usar IA em guerras. E imediatamente assinou um contrato com o Pentágono. Isso não é hipocrisia, é uma necessidade interna do seu modelo. Posições morais são parte do produto, contratos são a fonte de lucro.

Ele deve ser ao mesmo tempo um salvador misericordioso e um profeta implacável do apocalipse. Só assim sua história continua, só assim seu «destino» fica claro.

O verdadeiro perigo não é a IA, mas aqueles que se consideram com o direito de decidir o destino da humanidade.
WLD-1,9%
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar