*Data last updated: 2026-04-29 09:18 (UTC+8)
As of 2026-04-29 09:18, OpenAI (OPENAI) is priced at $0, with a total market cap of --, a P/E ratio of 0,00, and a dividend yield of 0,00 %. Today, the stock price fluctuated between $0 and $0. The current price is 0,00 % above the day's low and 0,00 % below the day's high, with a trading volume of --. Over the past 52 weeks, OPENAI has traded between $0 to $0, and the current price is 0,00 % away from the 52-week high.
OPENAI Key Stats
Erfahren Sie mehr über OpenAI (OPENAI)
Gate Learn Articles
Warum möchte OpenAI, dass seine ‚Aktien‘ nicht auf Robinhood gehandelt werden?
Robinhood startet tokenisierte Aktien von OpenAI und SpaceX, was Kontroversen auslöst. Dieser Artikel analysiert die rechtliche Struktur, die operativen Wege und die Reaktionen der Gemeinschaft auf "Equity-Tokenisierung" und untersucht, ob dies ein Versuch der finanziellen Demokratie oder ein spekulatives Produkt ist, das in Gleichheit gehüllt ist.
2025-07-07
Ich habe Künstliche Intelligenz studiert und bin schließlich als Forscher zu OpenAI gekommen.
Im Unterschied zum klassischen Auswendiglernen vermeidet diese Methode gängige Stolperfallen für KI-Anwender – beispielsweise kognitive Stagnation – indem sie einen universellen Fünf-Schritte-Ansatz bereitstellt. Sie befähigt Personen ohne Expertenstatus, rasch unterschiedliche Fähigkeiten zu erwerben, greift aktuelle Karrieretrends im Zeitalter der Ein-Personen-Unternehmen auf und liefert konkrete, praxisorientierte Handlungsempfehlungen.
2025-12-19
An den US-Börsen wird eine neue Form des KI-Roulette gespielt.
Die aktuelle KI-Kapitalschleife an den US-Börsen: OpenAI schließt einen umfangreichen Cloud-Computing-Deal mit Oracle ab; Oracle kauft wiederum große Mengen Nvidia-Chips. Gleichzeitig investiert Nvidia bei OpenAI. Dieser dreiseitige Kapitalstrom schafft eine selbsterhaltende Markterzählung, durch die Unternehmensbewertungen stark steigen und Aktienkurse sprunghaft zulegen. Kapitaldynamik und reale technologische Nachfrage werden dadurch eng miteinander verknüpft.
2025-09-24
Blogs
Steht die KI-Blase kurz vor dem Platzen? OpenAI verfehlt interne Ziele – Auswirkungen auf Technologiewerte und Bitcoin
OpenAIs Umsatz- und Nutzerwachstum blieb hinter den internen Zielvorgaben zurück, was einen breit angelegten Ausverkauf von KI-bezogenen Aktien auslöste. Die daraus resultierende Panik erfasste auch den Kryptomarkt, wobei BTC auf ein 24-Stunden-Tief von 75.666 US-Dollar fiel. Insgesamt wurden 72.000 Trader liquidiert, wobei sich die Verluste auf 189 Millionen US-Dollar beliefen.
2026-04-29
# Die besten Pre-IPO-Investmentplattformen 2026 im Vergleich: Warum Gate Ihre Aufmerksamkeit verdient
Dieser Artikel bietet eine umfassende Analyse des Mirror-Note-Mechanismus von Gate Pre-IPOs und hebt die wichtigsten Unterschiede zu gängigen Plattformen hervor. Ziel ist es, Ihnen dabei zu helfen, den besten Weg zu finden, um sich bereits vor dem Börsengang an Einhörnern wie SpaceX und OpenAI zu beteiligen.
2026-04-27
Warum steigen die Pre-IPO-Bewertungen im Jahr 2026 weiterhin an? Analyse der drei zentralen Treiber
Im Jahr 2026 erlebt der weltweite Pre-IPO-Markt einen beispiellosen Anstieg der Bewertungen. Von SpaceX bis OpenAI steigen die Bewertungen nicht börsennotierter Einhörner in bemerkenswertem Tempo.
2026-04-24
OpenAI (OPENAI) FAQ
What's the stock price of OpenAI (OPENAI) today?
What are the 52-week high and low prices for OpenAI (OPENAI)?
What is the price-to-earnings (P/E) ratio of OpenAI (OPENAI)? What does it indicate?
What is the market cap of OpenAI (OPENAI)?
What is the most recent quarterly earnings per share (EPS) for OpenAI (OPENAI)?
Should you buy or sell OpenAI (OPENAI) now?
What factors can affect the stock price of OpenAI (OPENAI)?
How to buy OpenAI (OPENAI) stock?
Risk Warning
Disclaimer
Other Trading Markets
OpenAI (OPENAI) Latest News
Claude: Chinesische Sprach-Tokenisierungskosten 65% höher als Englisch, OpenAI nur 15% mehr
Gate News-Meldung, 29. April — Der KI-Forscher Aran Komatsuzaki führte eine vergleichende Analyse der Tokenisierungs-Effizienz über sechs große KI-Modelle hinweg durch, indem er Rich Suttons wegweisende Arbeit „The Bitter Lesson“ in neun Sprachen übersetzte und sie anschließend über die Tokenizer von OpenAI, Gemini, Qwen, DeepSeek, Kimi und Claude verarbeitete. Unter Verwendung der Tokenanzahl der englischen Version auf OpenAI als Grundlage (1x) stellte die Studie erhebliche Unterschiede fest: Die Verarbeitung desselben Inhalts auf Chinesisch erforderte bei Claude 1,65x Tokens, verglichen mit lediglich 1,15x auf OpenAI. Hindi zeigte bei Claude ein noch drastischeres Ergebnis und lag mit über 3x über der Grundlage. Anthropic belegte unter den sechs getesteten Modellen den niedrigsten Platz. Entscheidend ist: Als derselbe chinesische Text über verschiedene Modelle verarbeitet wurde—alle jeweils anhand derselben englischen Grundlage gemessen—liefen die Ergebnisse dramatisch auseinander: Kimi verbrauchte nur 0,81x Tokens (und damit sogar weniger als Englisch), Qwen 0,85x, während Claude 1,65x benötigte. Diese Lücke zeigt ein reines Problem der Tokenisierungs-Effizienz und keine inhärente Sprachproblematik. Chinesische Modelle zeigten eine überlegene Effizienz bei der Verarbeitung von Chinesisch, was darauf hindeutet, dass die Diskrepanz von der Optimierung der Tokenizer herrührt und nicht von der Sprache selbst. Die praktischen Auswirkungen für Nutzer sind erheblich: Ein erhöhter Tokenverbrauch treibt die API-Kosten direkt in die Höhe, verlängert die Antwortlatenz des Modells und erschöpft die Kontextfenster schneller. Die Tokenisierungs-Effizienz hängt von der sprachlichen Zusammensetzung der Trainingsdaten eines Modells ab—Modelle, die überwiegend auf Englisch trainiert wurden, komprimieren englischen Text effizienter, während Sprachen mit geringerer Datenrepräsentation in kleinere, weniger effiziente Fragmente tokenisiert werden. Komatsuzakis Schlussfolgerung unterstreicht ein grundlegendes Prinzip: Die Marktgröße bestimmt die Tokenisierungs-Effizienz. Größere Märkte erhalten bessere Optimierungen, während unterrepräsentierte Sprachen mit deutlich höheren Tokenkosten konfrontiert sind.
2026-04-29 04:33OpenAI-Modelle sollen schrittweise zu Amazons benutzerdefiniertem Trainium-Chip migrieren, sagt Altman — er sei "sehr gespannt" darauf
Gate-News-Mitteilung, 29. April — OpenAI-Modelle, die auf dem Amazon Web Services Bedrock laufen, werden schrittweise auf Trainium migrieren, Amazons eigens entwickelten KI-Chip, wie jüngste Aussagen von OpenAI-CEO Sam Altman und AWS-Führungskräften nahelegen. Aktuell arbeiten die Modelle in einer gemischten Umgebung, die sowohl GPUs als auch Trainium nutzt, wobei der Anteil mit der Zeit zunehmend auf Trainium übergeht. Altman sagte, das Unternehmen sei "sehr gespannt darauf, Modelle auf Trainium zu verlagern." AWS-Manager Garman räumte ein, dass der Name Trainium möglicherweise irreführend gewesen sein könnte, da der Chip für sowohl Training als auch Inferenz ausgelegt ist, wobei Inferenz in Zukunft voraussichtlich der wichtigste Anwendungsfall sein wird. Garman betonte jedoch, dass das Chip-Branding für die meisten Kunden weitgehend irrelevant sei; Nutzer kämen mit OpenAI über die API-Schnittstelle in Kontakt, nicht direkt mit der zugrunde liegenden Hardware. Auf die Frage nach einer zukünftigen Integration von Nicht-OpenAI-Modellen in Bedrock Managed Agents ging Garman nicht ins Detail und erklärte lediglich, dass AWS derzeit auf seine Partnerschaft mit OpenAI fokussiert sei. Die Zusammenarbeit unterstreicht Amazons Strategie, seine eigene kundenspezifische Siliziumtechnologie zu nutzen, um große KI-Workloads auf seiner Cloud-Plattform zu unterstützen.
2026-04-29 04:29Altman: Token-Based Pricing Becoming Obsolete as GPT-5.5 Shifts Focus to Task Completion Over Token Count
Gate News message, April 29 — OpenAI CEO Sam Altman said in an interview with Ben Thompson on Stratechery that token-based pricing is not a long-term viable model for AI services. Using GPT-5.5 as an example, Altman noted that while the per-token price is significantly higher than GPT-5.4, the model uses far fewer tokens to complete the same task, meaning customers do not care about token count—they only care about whether the task is completed and the total cost. "We are not a token factory; we are more like an intelligence factory," Altman said. "Customers want to buy the most intelligence for the least money. Whether the underlying work is done by a large model running few tokens or a small model running many tokens does not matter to them." He added that OpenAI's current customer base is increasingly demanding more capacity rather than negotiating prices, with far more customers saying "give us more capacity, no matter the cost" than those asking for discounts. Drawing a parallel to utilities, Altman explained that unlike water or electricity—where lower prices do not significantly increase consumption—AI demand scales differently. "As long as the price is low enough, I will keep using more. No other public utility works this way," he said. AWS CEO Matt Garman added that computing power prices have dropped by multiple orders of magnitude over the past 30 years, yet more compute is being sold today than ever before. Altman also characterized ChatGPT as "the first truly large-scale consumer product since Facebook," acknowledging that while AI was expected to disrupt search, the real wins came from ChatGPT itself and the Codex API. He noted that "Google is still underestimated in many ways."
2026-04-29 03:05OpenAI-Codex startet Dual-Mode-Oberfläche: Excelmogging für Office-Arbeit, Codemaxxing für Programmierung
Gate News Nachricht, 29. April — OpenAI-CEO Sam Altman hat heute auf X eine neu gestaltete Codex-Oberfläche angekündigt und zwei unterschiedliche Modi für Nutzer eingeführt. „Excelmogging“ richtet sich an alltägliche Büroaufgaben mit einer vereinfachten Oberfläche und dem Slogan „Same tools, simpler interface,“ wobei Beispielaufgaben wie das Erstellen von Tabellenkalkulationen genannt werden. „Codemaxxing“ richtet sich an professionelle Entwickler mit der Beschreibung „For coding and development,“ wobei Beispielaufgaben das Debuggen von Datenbankabfragen einschließen. Codex, das ursprünglich auf Code-Generierung und Engineering-Aufgaben fokussiert war, hat sich weit über seinen ursprünglichen Rahmen hinaus ausgeweitet. Das Produkt verfügt mittlerweile über mehr als 4 Millionen wöchentlich aktive Nutzer und wird für Forschungsanalysen, das Zusammenfassen von Dokumenten und das Erstellen von Folien verwendet. Die neue Oberfläche macht diesen Trend formell, indem sie Nicht-Programmierer zu einem stärker gestrafften Erlebnis leitet. Diese Veränderung spiegelt ein breiteres Branchenmuster wider: Antrhopics Claude hat sich in Claude Code (für Programmierung) und Co Work (für allgemeine Büroarbeit) aufgeteilt, während ByteDances TRAE Solo ebenfalls Programmierungs- und Alltags-Office-Modi trennt. Die Dual-Mode-Strategie unterstreicht eine wachsende Übereinstimmung in der Branche: Programmiersagenten erweitern sich zunehmend zu Tools für allgemeine Büroproduktivität.
2026-04-29 00:11AWS Bedrock bietet jetzt OpenAIs neueste Modelle und einen verwalteten Agenten-Service
Gate-News-Meldung, 29. April — Amazon Web Services hat angekündigt, dass seine Bedrock-Plattform jetzt OpenAIs neueste Modelle unterstützt, darunter Codex, zusammen mit einem neuen verwalteten Agenten-Service. Die Entscheidung folgt auf Änderungen in der Vereinbarung von OpenAI mit Microsoft, die zuvor Azure exklusive Rechte an bestimmten OpenAI-Produkten gewährte. Bedrock Managed Agents ist speziell für OpenAIs Reasoning-Modelle entwickelt und umfasst Agenten-Steuerung sowie Sicherheitskontrollen. Die Ankündigung erfolgt, nachdem OpenAI und Amazon einen Deal im Wert von bis zu $50 Milliarden unterzeichnet haben, der die Umstrukturierung der ursprünglichen Partnerschaftsbedingungen von OpenAI mit Microsoft auslöste. Die Entwicklung spiegelt einen breiteren Wandel im Wettbewerb der Cloud-Anbieter wider: OpenAI kann nun alle seine Produkte über mehrere Cloud-Provider hinweg anbieten. AWS Bedrock hostet bereits Modelle von Anthropic, Meta, Mistral und anderen KI-Entwicklern und positioniert die Plattform damit als Multi-Model-Hub statt als Angebot eines einzelnen Anbieters.
Beliebte Beiträge zu OpenAI (OPENAI)


















































































































































































































































































































































































