*Dữ liệu cập nhật lần cuối: 2026-04-29 09:45 (UTC+8)
Tính đến 2026-04-29 09:45, OpenAI (OPENAI) đang giao dịch ở ₫0, với tổng vốn hóa thị trường là --, tỷ lệ P/E là 0,00 và tỷ suất cổ tức là 0,00%. Giá cổ phiếu hôm nay biến động trong khoảng ₫0 và ₫0. Giá hiện tại cao hơn 0,00% so với mức thấp nhất trong ngày và thấp hơn 0,00% so với mức cao nhất trong ngày, với khối lượng giao dịch là --. Trong 52 tuần qua, OPENAI đã giao dịch trong khoảng từ ₫0 đến ₫0 và giá hiện tại cách mức cao nhất trong 52 tuần 0,00%.
Các chỉ số chính của OPENAI
Tìm hiểu thêm về OpenAI (OPENAI)
Bài viết Gate Learn
Tại sao OpenAI không muốn 'cổ phiếu' của mình được giao dịch trên Robinhood?
Robinhood ra mắt cổ phiếu token hóa của OpenAI và SpaceX, gây ra tranh cãi. Bài viết này phân tích cấu trúc pháp lý, các con đường hoạt động và phản ứng của cộng đồng đối với "token hóa cổ phần," khám phá xem đây có phải là một nỗ lực hướng tới dân chủ tài chính hay một sản phẩm đầu cơ được che giấu dưới vỏ bọc bình đẳng.
2025-07-07
ChatGPT của OpenAI Dự Đoán Giá XRP và Cardano: Tiết Lộ Thông Tin Nội Bộ
Bài viết này giải thích cách mà ChatGPT của OpenAI dự đoán xu hướng giá của XRP và Cardano vào cuối năm 2025, đồng thời kết hợp các điều kiện thị trường mới nhất và các yếu tố thúc đẩy chính để cung cấp các tham khảo rõ ràng cho các nhà đầu tư tiền điện tử.
2025-06-19
Tôi từng học về AI, sau đó đã trở thành nhà nghiên cứu của OpenAI
Phương pháp này không giống với ghi nhớ máy móc truyền thống; nó giúp người dùng AI tránh những bẫy thường gặp như sự trì trệ nhận thức, nhờ vào khung năm bước có tính ứng dụng rộng rãi. Nhờ đó, người không chuyên dễ dàng phát triển nhiều kỹ năng khác nhau, đón đầu xu hướng nghề nghiệp khi thời đại công ty một người lên ngôi, và nhận được hướng dẫn thực tế, dễ áp dụng.
2025-12-19
Câu hỏi thường gặp về OpenAI (OPENAI)
Giá cổ phiếu OpenAI (OPENAI) hôm nay là bao nhiêu?
Mức giá cao nhất và thấp nhất trong 52 tuần của OpenAI (OPENAI) là bao nhiêu?
Tỷ lệ giá trên thu nhập (P/E) của OpenAI (OPENAI) là bao nhiêu? Nó chỉ ra điều gì?
Vốn hóa thị trường của OpenAI (OPENAI) là bao nhiêu?
Lợi nhuận trên mỗi cổ phiếu (EPS) hàng quý gần đây nhất của OpenAI (OPENAI) là bao nhiêu?
Bạn nên mua hay bán OpenAI (OPENAI) vào thời điểm này?
Những yếu tố nào có thể ảnh hưởng đến giá cổ phiếu OpenAI (OPENAI)?
Làm thế nào để mua cổ phiếu OpenAI (OPENAI)?
Cảnh báo rủi ro
Tuyên bố từ chối trách nhiệm
Thị trường giao dịch khác
Tin tức mới nhất về OpenAI (OPENAI)
Chi phí mã hóa token của ngôn ngữ tiếng Trung của Claude cao hơn 65% so với tiếng Anh, OpenAI chỉ cao hơn 15%
Tin tức Gate, 29 tháng 4 — Nhà nghiên cứu AI Aran Komatsuzaki đã tiến hành phân tích so sánh hiệu quả mã hóa token trên sáu mô hình AI lớn bằng cách dịch bài nghiên cứu mang tính nền tảng của Rich Sutton "The Bitter Lesson" sang chín ngôn ngữ và xử lý chúng qua bộ mã hóa của OpenAI, Gemini, Qwen, DeepSeek, Kimi và Claude. Dùng số lượng token của phiên bản tiếng Anh trên OpenAI làm mốc cơ sở (1x), nghiên cứu cho thấy sự chênh lệch đáng kể: khi xử lý cùng một nội dung bằng tiếng Trung, Claude cần 1.65x token, trong khi OpenAI chỉ cần 1.15x. Tiếng Hindi cho kết quả còn cực đoan hơn trên Claude, vượt mốc cơ sở hơn 3x. Anthropic xếp vị trí thấp nhất trong số sáu mô hình được thử nghiệm. Điểm mấu chốt là, khi cùng một văn bản tiếng Trung được xử lý trên các mô hình khác nhau—tất cả đều được đo so với cùng một mốc nền tiếng Anh—kết quả lại phân kỳ mạnh mẽ: Kimi chỉ tiêu thụ 0.81x token (thậm chí ít hơn cả tiếng Anh), Qwen 0.85x, trong khi Claude cần 1.65x. Khoảng cách này cho thấy một vấn đề thuần túy về hiệu quả mã hóa token, chứ không phải vấn đề vốn có của ngôn ngữ. Các mô hình tiếng Trung thể hiện hiệu quả cao hơn khi xử lý tiếng Trung, gợi ý rằng sự chênh lệch bắt nguồn từ việc tối ưu hóa bộ mã hóa thay vì từ bản thân ngôn ngữ. Ý nghĩa thực tiễn đối với người dùng là rất lớn: việc tiêu thụ token nhiều hơn trực tiếp làm tăng chi phí API, kéo dài độ trễ phản hồi của mô hình và làm cạn kiệt nhanh hơn các cửa sổ ngữ cảnh. Hiệu quả mã hóa token phụ thuộc vào thành phần ngôn ngữ trong dữ liệu huấn luyện của một mô hình—những mô hình được huấn luyện chủ yếu bằng tiếng Anh sẽ nén văn bản tiếng Anh hiệu quả hơn, trong khi các ngôn ngữ có mức độ dữ liệu thể hiện thấp hơn sẽ được mã hóa thành các mảnh nhỏ hơn, kém hiệu quả hơn. Kết luận của Komatsuzaki nhấn mạnh một nguyên tắc cơ bản: quy mô thị trường quyết định hiệu quả mã hóa token. Thị trường càng lớn thì mức tối ưu càng tốt, còn các ngôn ngữ ít được đại diện sẽ phải chịu chi phí token cao hơn đáng kể.
2026-04-29 07:21Các nhà nghiên cứu của OpenAI: Hệ thống AI có thể xử lý phần lớn công việc nghiên cứu trong vòng hai năm
Tin tức Cổng, ngày 29 tháng 4 — Các nhà nghiên cứu của OpenAI, Sébastien Bubeck và Ernest Ryu, cho biết các hệ thống AI có thể thực hiện phần lớn công việc nghiên cứu của con người trong vòng hai năm, coi toán học là thước đo rõ ràng cho tiến bộ của AI. Khác với các bài kiểm tra hiệu suất mơ hồ, các bài toán mang lại khả năng xác minh chính xác: câu trả lời hoặc đúng hoặc sai, không để chỗ cho sự mơ hồ. Bubeck cho biết suy nghĩ thật sự của AI cần có khả năng vượt qua các chuỗi suy luận dài. Chỉ một sai sót trong một lập luận nhiều bước sẽ làm sụp đổ toàn bộ chứng minh, khiến việc phát hiện và sửa lỗi ngay trong quá trình trở thành mục tiêu tối thượng đối với các mô hình tiên tiến. Các phòng thí nghiệm nội bộ của OpenAI đã tạo ra hơn mười định lý hoàn toàn mới có thể công bố trên các tạp chí hàng đầu về tổ hợp, cho thấy rằng AI hiện tạo ra các công trình thực sự nguyên bản, đột phá, thay vì chỉ tái tổ hợp các bài báo hiện có. Tuy nhiên, các đột phá khoa học bền vững đòi hỏi sự tập trung ổn định trong nhiều tuần thử nghiệm. Các hệ thống hiện tại vẫn cần giám sát chặt chẽ của con người để dẫn dắt và xác minh từng lần đổi hướng. Bubeck dùng "thời gian AGI" để đo xem một mô hình có thể độc lập bắt chước suy nghĩ của con người trong bao lâu; hiện tại, các hệ thống hoạt động trong khoảng từ vài ngày đến một tuần, và mục tiêu của ngành là vài tuần hoặc vài tháng để có thể làm việc tự chủ trong các lĩnh vực như sinh học. Trí nhớ dài hạn là then chốt cho tương lai này. Các cửa sổ chat tiêu chuẩn giới hạn độ sâu—các chứng minh toán học phức tạp thường vượt quá 50 trang—trong khi các kho mã cho thấy việc duy trì các phiên làm việc kéo dài giúp giải quyết vấn đề sâu hơn. Khi AI đạt được tính độc lập và trí nhớ, chuyên môn của con người trở nên có giá trị hơn, không phải ít hơn. Người lao động cần giữ lại kiến thức nền tảng sâu để thách thức và xác minh các câu trả lời của máy, và các tổ chức sẽ cần các bộ lọc tự động và hệ thống danh tiếng mới để duy trì niềm tin giữa một dòng nghiên cứu do AI hỗ trợ tràn ngập.
2026-04-29 04:33Các mô hình OpenAI sẽ dần chuyển sang chip Trainium do Amazon tùy chỉnh, Altman cho biết anh ấy đã 'mong chờ' điều đó
Tin tức cổng, ngày 29 tháng 4 — Theo những nhận xét gần đây từ Giám đốc điều hành OpenAI Sam Altman và các lãnh đạo của AWS, các mô hình OpenAI đang chạy trên Amazon Web Services' Bedrock sẽ dần dần chuyển sang Trainium, con chip AI do Amazon tự thiết kế. Hiện tại, các mô hình hoạt động trong một môi trường kết hợp, sử dụng cả GPU và Trainium, với tỷ trọng ngày càng tăng chuyển sang Trainium theo thời gian. Altman cho biết công ty đang "mong chờ việc chuyển các mô hình sang Trainium." Một lãnh đạo AWS là Garman thừa nhận rằng tên Trainium có thể đã gây hiểu nhầm, vì con chip được thiết kế cho cả huấn luyện và suy luận, trong đó suy luận dự kiến sẽ là trường hợp sử dụng chính trong tương lai. Tuy nhiên, Garman nhấn mạnh rằng việc gắn nhãn cho con chip phần lớn không liên quan đối với đa số khách hàng, khi người dùng tương tác với OpenAI thông qua giao diện API của hãng chứ không phải trực tiếp với phần cứng nền tảng. Khi được hỏi về việc tích hợp trong tương lai các mô hình không thuộc OpenAI vào Bedrock Managed Agents, Garman từ chối cung cấp chi tiết, chỉ nói rằng AWS hiện đang tập trung vào quan hệ đối tác của mình với OpenAI. Sự hợp tác này nhấn mạnh chiến lược của AWS nhằm tận dụng con chip silicon tùy chỉnh của mình để hỗ trợ các khối lượng công việc AI lớn trên nền tảng đám mây của hãng.
2026-04-29 03:05Codex của OpenAI ra mắt giao diện hai chế độ: Excelmogging cho công việc văn phòng, Codemaxxing cho lập trình
Tin tức từ Gate News, ngày 29 tháng 4 — Giám đốc điều hành OpenAI Sam Altman hôm nay đã công bố trên X một giao diện Codex được thiết kế lại, giới thiệu hai chế độ riêng biệt cho người dùng. "Excelmogging" nhắm đến các tác vụ văn phòng hằng ngày với giao diện được đơn giản hóa và khẩu hiệu "Cùng công cụ, giao diện đơn giản hơn," kèm các tác vụ ví dụ như tạo bảng tính. "Codemaxxing" nhắm tới các nhà phát triển chuyên nghiệp với mô tả "Dành cho mã hóa và phát triển," và các tác vụ mẫu bao gồm gỡ lỗi các truy vấn cơ sở dữ liệu. Codex, vốn ban đầu tập trung vào việc tạo mã và các tác vụ kỹ thuật, đã mở rộng vượt xa phạm vi ban đầu. Sản phẩm hiện có hơn 4 triệu người dùng hoạt động hằng tuần và được dùng cho phân tích nghiên cứu, tóm tắt tài liệu và tạo slide. Giao diện mới chính thức hóa xu hướng này bằng cách chuyển người dùng không lập trình sang một trải nghiệm tinh gọn hơn. Sự thay đổi này phản ánh một mô hình rộng hơn trong ngành: Claude của Anthropic đã tách thành Claude Code (for programming) và Co Work (for general office use), trong khi TRAE Solo của ByteDance cũng chia tương tự giữa chế độ lập trình và chế độ văn phòng hằng ngày. Chiến lược hai chế độ nhấn mạnh sự đồng thuận ngày càng tăng trong ngành—các tác nhân lập trình đang mở rộng để ngày càng bao trùm các công cụ năng suất văn phòng đa mục đích.
2026-04-29 00:11AWS Bedrock Giờ Đã Cung Cấp Các Mô Hình Mới Nhất Của OpenAI và Dịch Vụ Tác Nhân Được Quản Lý
Tin tức từ Gate, ngày 29 tháng 4 — Amazon Web Services thông báo rằng nền tảng Bedrock của họ hiện hỗ trợ các mô hình mới nhất của OpenAI, bao gồm Codex, cùng với một dịch vụ tác nhân được quản lý mới. Động thái này diễn ra sau những thay đổi trong thỏa thuận của OpenAI với Microsoft, trước đây đã cấp cho Azure quyền độc quyền đối với một số sản phẩm của OpenAI. Các Tác Nhân Được Quản Lý của Bedrock được xây dựng riêng cho các mô hình suy luận của OpenAI và bao gồm cơ chế điều hướng tác nhân cũng như các kiểm soát bảo mật. Thông báo được đưa ra sau khi OpenAI và Amazon ký kết một thỏa thuận trị giá lên đến $50 tỷ USD, điều này đã dẫn tới việc tái cấu trúc các điều khoản hợp tác ban đầu của OpenAI với Microsoft. Sự phát triển này phản ánh sự thay đổi rộng hơn trong cạnh tranh điện toán đám mây, khi giờ đây OpenAI có thể cung cấp tất cả các sản phẩm của mình trên nhiều nhà cung cấp đám mây. AWS Bedrock hiện đã lưu trữ các mô hình từ Anthropic, Meta, Mistral và các nhà phát triển AI khác, định vị nền tảng này như một trung tâm đa mô hình thay vì một giải pháp chỉ từ một nhà cung cấp duy nhất.

















































































































































































































































































































































































