*Dados atualizados pela última vez: 2026-04-29 09:41 (UTC+8)
Em 2026-04-29 09:41, o OpenAI (OPENAI) está cotado a €0, com uma capitalização de mercado total de --, um Índice P/L de 0,00 e um rendimento de dividendo de 0,00%. Hoje, o preço das ações oscilou entre €0 e €0. O preço atual está 0,00% acima do mínimo do dia e 0,00% abaixo do máximo do dia, com um volume de negociação de --. Ao longo das últimas 52 semanas, OPENAI esteve em negociação entre €0 e €0, estando atualmente a 0,00% do máximo das 52 semanas.
Estatísticas principais de OPENAI
Saiba mais sobre OpenAI (OPENAI)
Artigos Gate Learn
Por que é que a OpenAI não quer que a sua ‘ação’ seja negociada na Robinhood?
A Robinhood lança ações tokenizadas da OpenAI e da SpaceX, gerando controvérsia. Este artigo analisa a estrutura legal, os caminhos operacionais e as reações da comunidade à "tokenização de ações", explorando se se trata de uma tentativa de democracia financeira ou de um produto especulativo disfarçado de igualdade.
2025-07-07
ChatGPT da OpenAI Prevê Preços do XRP e Cardano: Insights de Insider Revelados
Este artigo interpreta como o ChatGPT da OpenAI prevê as tendências de preços do XRP e do Cardano até ao final de 2025, e combina as condições de mercado mais recentes e os principais fatores de impulso para fornecer referências claras para os investidores em criptomoedas.
2025-06-19
Estudei IA e, mais tarde, ingressei como investigador na OpenAI
Este método distingue-se da memorização tradicional ao evitar armadilhas recorrentes para utilizadores de IA, como a estagnação cognitiva, através de um modelo universal de cinco etapas. Capacita não especialistas a adquirir rapidamente múltiplas competências, antecipa tendências profissionais na era das empresas individuais e proporciona orientações práticas e imediatas.
2025-12-19
Blogues
Está a Bolha da IA Prestes a Rebentar? OpenAI Fica Aquém dos Objectivos Internos, com Impacto nas Acções Tecnológicas e no Bitcoin
O crescimento das receitas e do número de utilizadores da OpenAI ficou aquém dos objetivos internos, desencadeando uma venda generalizada de ações relacionadas com inteligência artificial. O pânico resultante alastrou ao mercado cripto, levando o BTC a atingir um mínimo de 24 horas nos 75 666 $. No total, 72 000 traders foram liquidados, registando-se perdas que ascenderam a
2026-04-29
# Comparação das Melhores Plataformas de Investimento Pré-IPO em 2026: Porque a Gate Merece a Sua Atenção
Este artigo apresenta uma análise aprofundada do mecanismo de notas espelhadas dos Pre-IPOs da Gate, destacando as principais diferenças face às plataformas convencionais. O objetivo é ajudá-lo a identificar a melhor forma de participar em unicórnios como a SpaceX e a OpenAI antes da sua entrada em bolsa.
2026-04-27
Porque Continuam a Subir as Avaliações Pré-IPO em 2026? Análise dos Três Principais Fatores
Em 2026, o mercado global de pré-IPO está a registar uma valorização sem precedentes. Desde a SpaceX à OpenAI, as avaliações dos unicórnios não cotados estão a aumentar a um ritmo notável.
2026-04-24
Perguntas Frequentes sobre OpenAI (OPENAI)
Qual é o preço das ações de OpenAI (OPENAI) hoje?
Quais são os preços máximo e mínimo das últimas 52 semanas para OpenAI (OPENAI)?
Qual é o índice preço-lucro (P/L) de OpenAI (OPENAI)? O que indica este valor?
Qual é a capitalização de mercado de OpenAI (OPENAI)?
Qual é o lucro por ação (EPS) trimestral mais recente de OpenAI (OPENAI)?
Deve comprar ou vender OpenAI (OPENAI) agora?
Que fatores podem influenciar o preço das ações da OpenAI (OPENAI)?
Como comprar ações da OpenAI (OPENAI)?
Aviso de Risco
Isenção de responsabilidade
Outros mercados de negociação
Últimas Notícias OpenAI (OPENAI)
O custo da tokenização do idioma chinês do Claude é 65% mais alto do que o do inglês; a OpenAI apenas 15% mais
Mensagem do Gate News, 29 de abril — a investigadora de IA Aran Komatsuzaki realizou uma análise comparativa da eficiência de tokenização em seis dos principais modelos de IA, traduzindo o artigo seminal de Rich Sutton "The Bitter Lesson" para nove línguas e processando-o através dos tokenizadores da OpenAI, Gemini, Qwen, DeepSeek, Kimi e Claude. Usando a contagem de tokens da versão em inglês na OpenAI como base (1x), o estudo revelou disparidades significativas: ao processar o mesmo conteúdo em chinês, eram necessários 1.65x tokens no Claude, em comparação com apenas 1.15x na OpenAI. O hindi apresentou um resultado ainda mais extremo no Claude, superando a base em mais de 3x. A Anthropic ficou em último lugar entre os seis modelos testados. De forma crucial, quando o mesmo texto chinês foi processado em diferentes modelos — todos medidos em relação à mesma base em inglês — os resultados divergiram dramaticamente: o Kimi consumiu apenas 0.81x tokens (até menos do que o inglês), o Qwen 0.85x, enquanto o Claude exigiu 1.65x. Esta diferença revela um problema puro de eficiência de tokenização, e não uma questão inerente ao idioma. Os modelos de chinês demonstraram maior eficiência ao processar chinês, sugerindo que a disparidade decorre da otimização do tokenizador e não do próprio idioma. As implicações práticas para os utilizadores são substanciais: o aumento do consumo de tokens eleva diretamente os custos da API, aumenta a latência de resposta do modelo e esgota mais rapidamente as janelas de contexto. A eficiência de tokenização depende da composição linguística dos dados de treino de um modelo — modelos treinados predominantemente em inglês comprimem o texto em inglês com maior eficiência, enquanto idiomas com menor representação nos dados são tokenizados em fragmentos menores e menos eficientes. A conclusão de Komatsuzaki sublinha um princípio fundamental: o tamanho do mercado determina a eficiência de tokenização. Mercados maiores recebem melhor otimização, enquanto os idiomas sub-representados enfrentam custos de tokens significativamente mais elevados.
2026-04-29 04:33Modelos da OpenAI para migrar gradualmente para o chip personalizado Trainium da Amazon, diz Altman; afirma que está a "olhar em frente"
Mensagem de Gate News, 29 de abril — Os modelos da OpenAI a correr no Amazon Web Services' Bedrock irão gradualmente migrar para o Trainium, o chip de IA personalizado da Amazon, de acordo com comentários recentes do CEO da OpenAI Sam Altman e de executivos da AWS. Atualmente, os modelos operam num ambiente misto usando tanto GPUs como Trainium, com uma quota crescente a migrar para o Trainium ao longo do tempo. Altman afirmou que a empresa está a "olhar em frente a mover modelos para o Trainium." Um executivo da AWS, Garman, reconheceu que o nome do Trainium pode ter sido enganador, uma vez que o chip foi concebido tanto para treino como para inferência, prevendo-se que a inferência seja o caso de uso principal no futuro. No entanto, Garman salientou que a marcação do chip é em grande medida irrelevante para a maioria dos clientes, ao notar que os utilizadores interagem com a OpenAI através da sua interface de API em vez de diretamente com o hardware subjacente. Quando questionado sobre uma futura integração de modelos que não sejam da OpenAI em Bedrock Managed Agents, Garman recusou-se a fornecer detalhes, afirmando apenas que a AWS está atualmente focada na sua parceria com a OpenAI. A colaboração sublinha a estratégia da AWS de aproveitar o seu silício personalizado para apoiar grandes cargas de trabalho de IA na sua plataforma cloud.
2026-04-29 04:29Altman: A precificação por tokens está a tornar-se obsoleta à medida que o GPT-5.5 muda o foco para a conclusão de tarefas em vez da contagem de tokens
Mensagem de Gate News, 29 de abril — O CEO da OpenAI, Sam Altman, disse numa entrevista a Ben Thompson na Stratechery que a fixação de preços baseada em tokens não é um modelo viável a longo prazo para serviços de IA. Usando o GPT-5.5 como exemplo, Altman observou que, embora o preço por token seja significativamente mais alto do que o do GPT-5.4, o modelo usa muito menos tokens para concluir a mesma tarefa, o que significa que os clientes não se importam com a contagem de tokens — só se importam com se a tarefa é concluída e com o custo total. "Não somos uma fábrica de tokens; somos mais como uma fábrica de inteligência", disse Altman. "Os clientes querem comprar a maior quantidade de inteligência pelo menor dinheiro. Quer o trabalho subjacente seja feito por um modelo grande a usar poucos tokens, ou por um modelo pequeno a usar muitos tokens, não lhes interessa." Acrescentou que a base de clientes atual da OpenAI está cada vez mais exigente em termos de mais capacidade, em vez de negociar preços, com muito mais clientes a dizerem "dêem-nos mais capacidade, custe o que custar" do que os que pedem descontos. Traçando um paralelo com as utilities, Altman explicou que, ao contrário da água ou da electricidade — em que preços mais baixos não aumentam significativamente o consumo — a procura de IA escala de forma diferente. "Enquanto o preço for suficientemente baixo, vou continuar a usar mais. Nenhuma outra utility pública funciona assim", disse. O CEO da AWS, Matt Garman, acrescentou que os preços do poder de computação diminuíram várias ordens de grandeza ao longo dos últimos 30 anos, ainda assim está a ser vendida hoje mais capacidade de computação do que nunca. Altman também caracterizou o ChatGPT como "o primeiro produto de consumo verdadeiramente em grande escala desde o Facebook", reconhecendo que, embora se esperasse que a IA perturbasse as pesquisas, as vitórias reais vieram do próprio ChatGPT e da API do Codex. Referiu que "o Google continua a ser subestimado de muitas formas".
2026-04-29 03:05O Codex da OpenAI lança uma interface em dois modos: Excelmogging para trabalho de escritório, Codemaxxing para programação
Mensagem do Gate News, 29 de abril — O CEO da OpenAI, Sam Altman, anunciou hoje no X uma interface do Codex redesenhada, apresentando dois modos distintos para os utilizadores. "Excelmogging" destina-se a tarefas quotidianas de escritório com uma interface simplificada e o slogan "Mesmas ferramentas, interface mais simples," com exemplos de tarefas como a criação de folhas de cálculo. "Codemaxxing" é destinado a programadores profissionais com a descrição "Para codificação e desenvolvimento," com tarefas de exemplo que incluem a depuração de consultas à base de dados. O Codex, que inicialmente se focava na geração de código e em tarefas de engenharia, expandiu-se muito para além do seu âmbito original. O produto conta agora com mais de 4 milhões de utilizadores ativos semanais e é utilizado para análises de pesquisa, sumarização de documentos e criação de apresentações. A nova interface formaliza esta tendência ao encaminhar utilizadores não programadores para uma experiência mais simplificada. Esta mudança reflecte um padrão mais amplo da indústria: o Claude da Anthropic foi dividido em Claude Code (para programação) e Co Work (para uso geral de escritório), enquanto o TRAE Solo da ByteDance também divide os modos de programação e de escritório quotidiano. A estratégia de dois modos sublinha um consenso crescente na indústria — os agentes de programação estão cada vez mais a alargar-se a ferramentas gerais de produtividade de escritório.
2026-04-29 00:11AWS Bedrock passa a oferecer os modelos mais recentes da OpenAI e um serviço gerido de agentes
Mensagem do Gate News, 29 de abril — A Amazon Web Services anunciou que a sua plataforma Bedrock passou a suportar os mais recentes modelos da OpenAI, incluindo o Codex, juntamente com um novo serviço gerido de agentes. A medida surge na sequência de alterações ao acordo da OpenAI com a Microsoft, que anteriormente tinha concedido à Azure direitos exclusivos sobre certos produtos da OpenAI. Os Agentes Geridos do Bedrock foram concebidos para os modelos de raciocínio da OpenAI e incluem mecanismos de orientação do agente e controlos de segurança. O anúncio surge após a OpenAI e a Amazon terem assinado um acordo avaliado em até $50 billion, o que levou à reestruturação dos termos originais de parceria da OpenAI com a Microsoft. O desenvolvimento reflete uma mudança mais ampla na concorrência em cloud, com a OpenAI agora capaz de oferecer todos os seus produtos em vários fornecedores de cloud. O AWS Bedrock já alberga modelos da Anthropic, Meta, Mistral e outros desenvolvedores de IA, posicionando a plataforma como um hub multi-modelo em vez de uma oferta de um único fornecedor.
Publicações em alta sobre OpenAI (OPENAI)


















































































































































































































































































































































































