แหล่งที่มา: 华尔街见闻
16 มีนาคม 2026 งาน GTC 2026 ของ英伟达เปิดฉากอย่างเป็นทางการ 黄仁勋 ผู้ก่อตั้งและ CEO กล่าวสุนทรพจน์หลัก
ในงานที่ถูกมองว่าเป็น “การแสวงบุญประจำปีของอุตสาหกรรม AI” นี้ 黄仁勋 ได้อธิบายถึงการเปลี่ยนแปลงของ英伟达 จากบริษัท “ชิปเซ็ต” สู่ “โครงสร้างพื้นฐานและโรงงาน AI” โดยในช่วงที่ตลาดให้ความสนใจอย่างสูงต่อความต่อเนื่องของผลประกอบการและโอกาสในการเติบโต 黄仁勋 ได้วิเคราะห์กลไกธุรกิจพื้นฐานที่ขับเคลื่อนการเติบโตในอนาคต — “เศรษฐศาสตร์โรงงาน Token”

ในสองปีที่ผ่านมา ความต้องการคำนวณ AI ทั่วโลกพุ่งสูงเป็นทวีคูณ เมื่อโมเดลขนาดใหญ่พัฒนาจาก “การรับรู้”, “การสร้าง” ไปสู่ “การสรุปผล” และ “การดำเนินการ (ปฏิบัติภารกิจ)” การใช้พลังคำนวณก็เพิ่มขึ้นอย่างรวดเร็ว 黄仁勋 ได้แสดงความคาดหวังที่แข็งแกร่งมากต่อแนวโน้มนี้
黄仁勋 กล่าวตรงๆ ในสุนทรพจน์ว่า:
เมื่อปีที่แล้ว ผมเคยพูดว่า เรามองเห็นความต้องการที่มั่นใจสูงถึง 5000 พันล้านดอลลาร์ ซึ่งครอบคลุม Blackwell และ Rubin จนถึงปี 2026 ตอนนี้ ณ จุดนี้ ณ เวลานี้ ผมเห็นความต้องการอย่างน้อย 1 ล้านล้านดอลลาร์ในปี 2027

ความคาดหวังนี้ของ黄仁勋 ทำให้ราคาหุ้น英伟达 พุ่งขึ้นกว่า 4.3%

นอกจากนี้ เขายังได้เสริมตัวเลขนี้ว่า:
นี่สมเหตุสมผลไหม? นี่คือสิ่งที่ผมจะพูดต่อไป จริงๆ แล้ว เรายังไม่สามารถตอบสนองความต้องการได้เพียงพอ ผมมั่นใจว่าความต้องการคำนวณจริงจะสูงกว่านี้มาก
黄仁勋 ชี้ให้เห็นว่า ระบบของ英伟达ในปัจจุบันได้พิสูจน์แล้วว่าเป็น “โครงสร้างพื้นฐานที่ต้นทุนต่ำที่สุดในโลก” เนื่องจาก英伟达 สามารถรันโมเดล AI ได้เกือบทุกด้าน ความสามารถนี้ทำให้การลงทุน 1 ล้านล้านดอลลาร์ของลูกค้าสามารถถูกใช้อย่างเต็มที่และมีอายุการใช้งานที่ยาวนาน
ปัจจุบัน ธุรกิจ 60% ของ英伟达 มาจากผู้ให้บริการคลาวด์ขนาดใหญ่ 5 ราย และอีก 40% กระจายอยู่ในกลุ่มคลาวด์อธิปไตย องค์กรอุตสาหกรรม หุ่นยนต์ และการคำนวณขอบเขตต่างๆ
เพื่ออธิบายความสมเหตุสมผลของความต้องการ 1 ล้านล้านดอลลาร์นี้ 黄仁勋 ได้แสดงแนวคิดเชิงธุรกิจใหม่ให้กับ CEO ของบริษัททั่วโลก เขาชี้ว่า ศูนย์ข้อมูลในอนาคตจะไม่ใช่แค่คลังเก็บไฟล์อีกต่อไป แต่จะเป็น “โรงงาน” ผลิต Token (หน่วยพื้นฐานของ AI ที่สร้างขึ้น)

黄仁勋 เน้นย้ำว่า:
ทุกศูนย์ข้อมูล ทุกโรงงาน ตั้งแต่กำเนิด ก็ถูกจำกัดด้วยพลังงาน หนึ่งโรงงานที่ใช้ไฟ 1GW (กิกะวัตต์) จะไม่มีทางกลายเป็น 2GW ซึ่งเป็นกฎฟิสิกส์และอะตอม ในภายใต้พลังงานคงที่ ใครที่มีอัตราการผ่าน Token ต่อวัตต์สูงสุด ก็จะมีต้นทุนการผลิตต่ำที่สุด
黄仁勋 จัดแบ่งระดับบริการ AI ออกเป็นชั้นต่างๆ ดังนี้:
ฟรี (High Throughput, Low Speed)
ระดับกลาง (~3 ดอลลาร์ต่อหนึ่งล้าน Token)
ระดับสูง (~6 ดอลลาร์ต่อหนึ่งล้าน Token)
ความเร็วสูง (~45 ดอลลาร์ต่อหนึ่งล้าน Token)
ความเร็วสูงสุด (~150 ดอลลาร์ต่อหนึ่งล้าน Token)
เขาอธิบายว่า เมื่อโมเดลใหญ่ขึ้นและบริบทยาวขึ้น AI จะฉลาดขึ้น แต่การสร้าง Token จะช้าลง 黄仁勋 กล่าวว่า:
ในโรงงาน Token นี้ อัตราการผ่านและความเร็วในการสร้าง Token ของคุณ จะตรงกับรายได้ที่คุณจะได้รับในปีหน้า
黄仁勋 เน้นว่า สถาปัตยกรรมของ英伟达 ช่วยให้ลูกค้าสามารถทำ High Throughput ได้ในระดับสูงสุดในชั้นฟรี และในชั้นที่มีมูลค่าสูงสุดของการวิเคราะห์ (Inference) ก็สามารถเพิ่มประสิทธิภาพได้ถึง 35 เท่า

ภายใต้ข้อจำกัดของกฎฟิสิกส์นี้ 英伟达 ได้แนะนำระบบคำนวณ AI ที่ซับซ้อนที่สุดในประวัติศาสตร์ Vera Rubin 黄仁勋 กล่าวว่า:
เมื่อพูดถึง Hopper ผมจะยกชิปขึ้นมา มันน่ารักดี แต่เมื่อพูดถึง Vera Rubin ทุกคนจะนึกถึงระบบทั้งระบบ ในระบบนี้ที่ใช้น้ำหล่อเย็นแบบ液冷 100% และไม่มีสายเคเบิลแบบเดิมอีกต่อไป โครงสร้างเดิมที่ใช้เวลาติดตั้งสองวัน ตอนนี้ใช้เวลาเพียงสองชั่วโมงเท่านั้น
黄仁勋 ชี้ให้เห็นว่า ด้วยการออกแบบซอฟต์แวร์และฮาร์ดแวร์แบบสุดขีด Vera Rubin สร้างความก้าวหน้าขนาดใหญ่ในศูนย์ข้อมูลเดียวกัน:
ในเวลาเพียงสองปี เราได้เพิ่มอัตราการสร้าง Token จาก 22 ล้านเป็น 700 ล้านต่อวินาที คิดเป็นการเติบโต 350 เท่า ซึ่งในช่วงเวลาเดียวกัน Moore’s Law ให้ผลประมาณ 1.5 เท่าเท่านั้น
เพื่อแก้ปัญหาคอขวดด้านแบนด์วิดธ์ในกรณีการวิเคราะห์ความเร็วสูง (เช่น 1000 Token/วินาที) 英伟达 จัดให้มีการรวมระบบที่ซื้อกิจการ Groq เข้าด้วยกันในแนวทางสุดท้าย: การแยกการวิเคราะห์แบบไม่สมมาตร 黄仁勋 อธิบายว่า:
ลักษณะเด่นของสองตัวประมวลผลนี้แตกต่างกันอย่างสิ้นเชิง ชิป Groq มี SRAM 500MB ในขณะที่ Rubin มีหน่วยความจำ 288GB

黄仁勋 ชี้ให้เห็นว่า ด้วยระบบซอฟต์แวร์ Dynamo ของ英伟达 การแบ่งงานระหว่างการเติมข้อมูลล่วงหน้า (Pre-fill) และการ decode ที่ไวต่อความล่าช้า (decode stage) ให้ Vera Rubin ทำหน้าที่นี้ ส่วนการ decode ที่ต้องการความเร็วสูงมาก เช่น การสร้าง Token ก็ให้ Groq ทำหน้าที่นี้ 黄仁勋 ยังแนะนำการปรับแต่งการจัดสรรทรัพยากรในศูนย์ข้อมูล:
ถ้างานของคุณเน้น throughput สูง ให้ใช้ Vera Rubin 100% แต่ถ้าคุณมีความต้องการสร้าง Token ที่มีมูลค่าสูงมาก เช่น การสร้างโค้ด ให้จัดสรร 25% ของศูนย์ข้อมูลให้กับ Groq
ข้อมูลจาก Samsung ที่ผลิตชิป Groq LP30 อยู่ในสายการผลิตแล้ว คาดว่าจะเริ่มส่งมอบในไตรมาส 3 และ Vera Rubin ตัวแรกก็ทำงานบนคลาวด์ Azure ของ Microsoft แล้ว
นอกจากนี้ 黄仁勋 ยังแสดงเทคโนโลยีการเชื่อมต่อด้วย光互联 ซึ่งเป็นการแสดง Spectrum X ซึ่งเป็นสวิตช์光学 (CPO) รุ่นแรกของโลกที่ผลิตจำนวนมาก และได้คลายความกังวลของตลาดเกี่ยวกับแนวทาง “ทองแดงถอยหลัง เข้าสู่光” ด้วยคำพูดว่า:
เราต้องการกำลังการผลิตสายทองแดงมากขึ้น กำลังการผลิตชิป光มากขึ้น และกำลังการผลิต CPO มากขึ้น
นอกจากฮาร์ดแวร์ 黄仁勋 ยังใช้เวลาส่วนใหญ่กับการปฏิวัติซอฟต์แวร์ AI และระบบนิเวศ โดยเฉพาะการระเบิดของ Agent (ตัวแทนสมองกล)
เขาเปรียบโครงการโอเพนซอร์ส OpenClaw ว่าเป็น “โครงการโอเพนซอร์สที่ได้รับความนิยมที่สุดในประวัติศาสตร์มนุษยชาติ” ซึ่งใช้เวลาเพียงไม่กี่สัปดาห์ ก็แซงหน้าความสำเร็จของ Linux ตลอด 30 ปีที่ผ่านมา 黄仁勋 กล่าวตรงๆ ว่า OpenClaw เป็น “ระบบปฏิบัติการ” ของคอมพิวเตอร์ Agent
黄仁勋 ยืนยันว่า:
ทุกบริษัท SaaS จะกลายเป็นบริษัท AaaS (Agent-as-a-Service) อย่างไม่ต้องสงสัย เพื่อให้ Agent ที่สามารถเข้าถึงข้อมูลสำคัญและรันโค้ดได้ปลอดภัย 英伟达 จัดทำ NeMo Claw เป็นแบบอย่างสำหรับการออกแบบอ้างอิงระดับองค์กร เพิ่มกลไกนโยบายและเราท์เตอร์ความเป็นส่วนตัว
สำหรับคนธรรมดาในสายงาน 黄仁勋 วาดภาพอนาคตของที่ทำงานไว้ว่า:
ในอนาคต พนักงานวิศวกรของบริษัทแต่ละคนจะมีงบ Token รายปี รายได้พื้นฐานอาจเป็นหลายแสนดอลลาร์ ผมจะจัดสรรประมาณครึ่งหนึ่งของเงินเดือนเป็น Token ให้พวกเขา เพื่อให้พวกเขาทำงานได้ 10 เท่า นี่คือกลยุทธ์การรับสมัครงานใหม่ของ Silicon Valley: ในข้อเสนอของคุณมี Token เท่าไหร่?
ในช่วงท้าย สุนทรพจน์ 黄仁勋 ยัง “เปิดเผย” โครงสร้างการคำนวณรุ่นต่อไป Feynman ซึ่งจะเป็นครั้งแรกที่รองรับการขยายระดับร่วมกันของทองแดงและ CPO และที่น่าตื่นเต้นยิ่งกว่านั้น 英伟达 กำลังพัฒนาและวางแผนระบบคอมพิวเตอร์ในอวกาศ “Vera Rubin Space-1” ซึ่งจะเปิดโอกาสให้ AI คำนวณในอวกาศอย่างเต็มที่
全文演讲:
主持人: ยินดีต้อนรับสู่เวทีของ黄仁勋 ผู้ก่อตั้งและซีอีโอของ英伟达
黄仁勋:
ยินดีต้อนรับเข้าสู่ GTC ผมอยากเตือนทุกคนว่านี่คือการประชุมด้านเทคโนโลยี ผมดีใจมากที่เห็นผู้คนต่อแถวเข้าร่วมตั้งแต่เช้า และได้เห็นทุกท่านในที่นี้
ใน GTC เราจะเน้นสามหัวข้อหลัก: เทคโนโลยี, แพลตฟอร์ม และระบบนิเวศ 英伟达 ปัจจุบันมีสามแพลตฟอร์มหลัก: CUDA-X, ระบบแพลตฟอร์ม และแพลตฟอร์มโรงงาน AI รุ่นล่าสุดของเรา
ก่อนเริ่ม ผมขอขอบคุณพิธีกรในช่วงเปิดตัว — Sarah Guo จาก Conviction, Alfred Lin จาก Sequoia (นักลงทุนรายแรกของ英伟达), และ Gavin Baker ซึ่งเป็นนักลงทุนหลักรายแรกของเรา ทั้งสามมีความเข้าใจลึกซึ้งด้านเทคโนโลยีและมีอิทธิพลในระบบนิเวศเทคโนโลยีอย่างกว้างขวาง แน่นอน ผมยังขอขอบคุณแขกผู้มีเกียรติทุกท่านที่ได้รับเชิญด้วยตัวเองจากผม ขอบคุณทีมดาราในวันนี้
ผมยังขอขอบคุณบริษัทต่างๆ ที่เข้าร่วมงานนี้ ตัว英伟达 เป็นบริษัทแพลตฟอร์ม เรามีเทคโนโลยี แพลตฟอร์ม และระบบนิเวศที่หลากหลาย ตัวแทนจากบริษัทในอุตสาหกรรมมูลค่ากว่า 100 ล้านล้านดอลลาร์ เข้าร่วมงานนี้กว่า 450 บริษัท ขอแสดงความขอบคุณอย่างสุดซึ้ง
งานนี้มีการบรรยายเทคนิค 1,000 หัวข้อ โดยมีวิทยากร 2,000 คน ครอบคลุมทุกชั้นของสถาปัตยกรรม “ห้าชั้นของ AI” — ตั้งแต่โครงสร้างพื้นฐาน เช่น ที่ดิน, ไฟฟ้า, ศูนย์ข้อมูล ไปจนถึงชิป, แพลตฟอร์ม, โมเดล และสุดท้ายคือแอปพลิเคชันที่ผลักดันอุตสาหกรรมให้เติบโต
จุดเริ่มต้นอยู่ที่นี่ ปีนี้เป็นครบรอบ 20 ปีของ CUDA
ตลอด 20 ปีที่ผ่านมา เรามุ่งมั่นพัฒนาสถาปัตยกรรมนี้ CUDA เป็นนวัตกรรมปฏิวัติ — เทคโนโลยี SIMT (Single Instruction Multiple Thread) ช่วยให้นักพัฒนาสามารถเขียนโปรแกรมด้วยโค้ดแบบสเกลาร์ แล้วขยายเป็นแอปพลิเคชันมัลติเทรด ซึ่งง่ายกว่าการใช้สถาปัตยกรรม SIMD เดิมมาก ล่าสุด เรายังเพิ่มฟีเจอร์ Tiles เพื่อช่วยให้นักพัฒนาสามารถเขียนโปรแกรม Tensor Core ได้ง่ายขึ้น รวมถึงโครงสร้างคณิตศาสตร์ต่างๆ ที่ AI ต้องการ ปัจจุบัน CUDA มีเครื่องมือ คอมไพเลอร์ เฟรมเวิร์ก และไลบรารีนับหมื่นรายการ ในชุมชนโอเพนซอร์สมีโปรเจกต์เปิดเผยเป็นแสนรายการ และได้ฝังตัวเข้าไปในทุกระบบนิเวศเทคโนโลยี
แผนภาพนี้แสดงกลยุทธ์ 100% ของ英伟达 ซึ่งผมได้อธิบายมาตลอด จุดที่ยากที่สุดและสำคัญที่สุด คือ “ปริมาณการติดตั้ง” ที่สะสมมานาน 20 ปี เรามี GPU และระบบคำนวณที่รัน CUDA อยู่ในทั่วโลกนับร้อยล้านชิ้น
GPU ของเรา ครอบคลุมทุกคลาวด์แพลตฟอร์ม ให้บริการกับผู้ผลิตคอมพิวเตอร์และอุตสาหกรรมเกือบทุกแห่ง ปริมาณการติดตั้งนี้เป็นแรงผลักดันให้วงจรนี้หมุนเร็วขึ้น นักพัฒนาสร้างอัลกอริธึมใหม่ๆ และบรรลุความก้าวหน้า ตลาดใหม่เกิดขึ้น ระบบนิเวศใหม่ก็เกิดขึ้นตาม ปริมาณการติดตั้งก็เพิ่มขึ้นเรื่อยๆ — วงจรนี้กำลังเร่งตัวขึ้นเรื่อยๆ
ยอดดาวน์โหลดไลบรารีของ英伟达 เพิ่มขึ้นอย่างรวดเร็วและต่อเนื่อง วงจรนี้ทำให้แพลตฟอร์มคำนวณของเรา รองรับแอปพลิเคชันจำนวนมหาศาลและความก้าวหน้าใหม่ๆ อย่างไม่หยุดยั้ง
ที่สำคัญที่สุด มันยังให้อายุการใช้งานของโครงสร้างพื้นฐานเหล่านี้ยาวนานมาก เพราะแอปพลิเคชันบน NVIDIA CUDA มีความหลากหลาย ครอบคลุมทุกช่วงของวงจรชีวิต AI, แพลตฟอร์มข้อมูล และตัวแก้สมการทางวิทยาศาสตร์ ดังนั้น เมื่อคุณติดตั้ง GPU ของ英伟达 แล้ว มูลค่าการใช้งานจริงสูงมาก นี่คือเหตุผลที่ GPU ของเรา ซึ่งเปิดตัวเมื่อหกปีก่อนในสถาปัตยกรรม Ampere ราคาบนคลาวด์ กลับเพิ่มขึ้นในช่วงหลายปีที่ผ่านมา
ทั้งหมดนี้เกิดจากปริมาณการติดตั้งที่มาก วงจรที่แข็งแกร่ง และระบบนิเวศที่กว้างขวาง เมื่อปัจจัยเหล่านี้ทำงานร่วมกัน พร้อมกับการอัปเดตซอฟต์แวร์อย่างต่อเนื่อง ต้นทุนการคำนวณจะลดลงเรื่อยๆ การเร่งความเร็วในการคำนวณช่วยเพิ่มประสิทธิภาพแอปพลิเคชันอย่างมาก และเมื่อเราบำรุงรักษาและปรับปรุงซอฟต์แวร์อย่างต่อเนื่อง ผู้ใช้จะได้รับประโยชน์จากการเพิ่มขึ้นของประสิทธิภาพในช่วงแรก และยังคงลดต้นทุนการคำนวณได้ในระยะยาว เราพร้อมสนับสนุน GPU ทุกชิ้นทั่วโลกในระยะยาว เพราะโครงสร้างนี้เข้ากันได้อย่างสมบูรณ์
เหตุผลที่เรายังทำเช่นนี้ เพราะปริมาณการติดตั้งมหาศาล — ทุกครั้งที่เราอัปเดตซอฟต์แวร์ จะเป็นประโยชน์ต่อผู้ใช้หลายล้านคน วงจรนี้ทำให้สถาปัตยกรรม英伟达 ขยายการครอบคลุมอย่างต่อเนื่อง เร่งการเติบโตของตัวเอง และลดต้นทุนการคำนวณลงในที่สุด ซึ่งเป็นแรงผลักดันให้เกิดการเติบโตใหม่ CUDA จึงเป็นหัวใจสำคัญของทุกสิ่งนี้
เส้นทางของเรากับ CUDA เริ่มต้นตั้งแต่ 25 ปีก่อน
GeForce — เชื่อว่าทุกคนในนี้เติบโตมากับ GeForce เป็นโครงการส่งเสริมการตลาดที่ประสบความสำเร็จที่สุดของ英伟达 เราเริ่มสร้างฐานลูกค้าในช่วงที่คุณยังซื้อสินค้าไม่ไหว — พ่อแม่ของคุณแทนคุณกลายเป็นผู้ใช้英伟达 รายแรกๆ ซื้อผลิตภัณฑ์ของเราเป็นปีๆ จนวันหนึ่ง คุณเติบโตเป็นนักวิทยาศาสตร์คอมพิวเตอร์ที่เก่งกาจ กลายเป็นลูกค้าและนักพัฒนาตัวจริง
นี่คือรากฐานที่ GeForce วางไว้ 25 ปีที่ผ่านมา 25 ปีที่แล้ว เราคิดค้น “Shader Program” ซึ่งเป็นนวัตกรรมที่เปลี่ยนเกมให้กลายเป็นอุปกรณ์เร่งความเร็วที่สามารถเขียนโปรแกรมได้ — เป็นอุปกรณ์เร่งความเร็วแบบโปรแกรมได้ตัวแรกของโลก นั่นคือ Pixel Shader สองสามปีต่อมา เราได้สร้าง CUDA ซึ่งเป็นการลงทุนที่สำคัญที่สุดของเราในประวัติศาสตร์ ตอนนั้นบริษัทมีงบประมาณจำกัด แต่เราทุ่มเทกำไรส่วนใหญ่ให้กับมัน เพื่อขยาย CUDA จาก GeForce ไปสู่ทุกคอมพิวเตอร์ เราเชื่อมั่นในศักยภาพของมัน แม้ในช่วงแรกจะลำบาก แต่เรายืนหยัดในความเชื่อนี้เป็นเวลา 13 รุ่น รวม 20 ปี ปัจจุบัน CUDA ได้กลายเป็นสิ่งที่แพร่หลายอย่างไม่หยุดยั้ง
Pixel Shader ได้ผลักดันให้ GeForce ปฏิวัติวงการ และประมาณ 8 ปีที่แล้ว เราเปิดตัว RTX ซึ่งเป็นการปฏิวัติสถาปัตยกรรมกราฟิกคอมพิวเตอร์ยุคใหม่ GeForce ทำให้ CUDA เข้าถึงทั่วโลก และจากนั้น นักวิชาการอย่าง Alex Krizhevsky, Ilya Sutskever, Geoffrey Hinton, Andrew Ng ก็พบว่า GPU สามารถเป็นเครื่องมือเร่งความเร็วในการเรียนรู้เชิงลึก จนเกิดปรากฏการณ์ AI ระลอกใหญ่เมื่อสิบปีก่อน
สิบปีที่แล้ว เราตัดสินใจผสมผสานการเร่งความเร็วแบบโปรแกรมได้เข้ากับแนวคิดใหม่สองอย่าง: หนึ่งคือ การติดตามแสงแบบ Ray Tracing ซึ่งเป็นเทคโนโลยีที่ท้าทายมาก สองคือ แนวคิดล่วงหน้าที่มองว่า AI จะเปลี่ยนแปลงการสร้างภาพคอมพิวเตอร์อย่างสิ้นเชิง เมื่อ GeForce ทำให้ AI เข้าถึงทั่วโลก AI ก็จะกลับมาปรับเปลี่ยนวิธีการสร้างภาพคอมพิวเตอร์ใหม่ทั้งหมด
วันนี้ ผมจะนำเสนออนาคต นั่นคือเทคโนโลยีกราฟิกรุ่นใหม่ของเรา ซึ่งเราเรียกว่า Neural Rendering — การผสมผสานลึกซึ้งระหว่าง 3D Graphics กับ AI นั่นคือ DLSS 5 ดูกันเลย
นี่เป็นสิ่งที่น่าทึ่งไหม? กราฟิกคอมพิวเตอร์จะฟื้นคืนชีพอีกครั้ง
เราทำอะไร? เราผสมผสาน 3D ที่สามารถควบคุมได้ (พื้นฐานของโลกเสมือน) กับข้อมูลเชิงโครงสร้าง แล้วผนวกกับ Generative AI และการคำนวณแบบความน่าจะเป็น หนึ่งคือความแน่นอน อีกหนึ่งคือความสมจริงสูง — เรารวมสองแนวคิดนี้เข้าด้วยกัน โดยใช้ข้อมูลเชิงโครงสร้างเพื่อความแม่นยำและควบคุมได้อย่างแม่นยำ ในขณะเดียวกันก็สร้างเนื้อหาแบบเรียลไทม์ ผลลัพธ์คือ เนื้อหาที่สวยงามและน่าทึ่ง แต่ก็สามารถควบคุมได้อย่างสมบูรณ์
แนวคิดการผสมผสานข้อมูลเชิงโครงสร้างและ Generative AI นี้ จะถูกนำไปใช้ในอุตสาหกรรมต่างๆ อย่างต่อเนื่อง ข้อมูลเชิงโครงสร้างเป็นรากฐานของ AI ที่เชื่อถือได้
ตอนนี้ ผมจะพาทุกท่านดูภาพสถาปัตยกรรมเทคโนโลยี
ข้อมูลเชิงโครงสร้าง — คุ้นเคยกันดีใน SQL, Spark, Pandas, Velox รวมถึงแพลตฟอร์มสำคัญอย่าง Snowflake, Databricks, Amazon EMR, Azure Fabric, Google BigQuery — ทั้งหมดนี้จัดการกับ Data Frame ซึ่งเป็นเหมือนตารางอิเล็กทรอนิกส์ขนาดใหญ่ที่บรรจุข้อมูลสำคัญของธุรกิจ เป็นความจริงพื้นฐานขององค์กร
ในยุค AI เราต้องทำให้ AI ใช้ข้อมูลเชิงโครงสร้างเหล่านี้ได้อย่างรวดเร็วที่สุด ในอดีต การเร่งความเร็วการประมวลผลข้อมูลเชิงโครงสร้างเพื่อให้ธุรกิจดำเนินไปอย่างมีประสิทธิภาพ แต่ในอนาคต AI จะใช้ข้อมูลเหล่านี้ด้วยความเร็วที่เหนือกว่ามนุษย์อย่างมาก และ Agent ก็จะเรียกใช้ฐานข้อมูลเชิงโครงสร้างจำนวนมาก
ด้านข้อมูลไม่เชิงโครงสร้าง เช่น ฐานข้อมูลเวกเตอร์ PDF วิดีโอ เสียง ฯลฯ เป็นข้อมูลส่วนใหญ่ของโลก — ในแต่ละปี ข้อมูลไม่เชิงโครงสร้างคิดเป็นประมาณ 90% ของข้อมูลทั้งหมด ในอดีต ข้อมูลเหล่านี้แทบจะไม่สามารถใช้งานได้เลย เราอ่านเข้าไป จัดเก็บไว้ในไฟล์เท่านั้น ไม่มีการค้นหา ไม่มีการดึงข้อมูล เนื่องจากข้อมูลไม่เชิงโครงสร้างขาดวิธีการทำดัชนีง่ายๆ ต้องเข้าใจความหมายและบริบทของมัน แต่ตอนนี้ AI ทำได้แล้ว — ด้วยเทคโนโลยีการรับรู้และเข้าใจแบบมัลโมดัล AI สามารถอ่าน PDF เข้าใจความหมาย และฝังเข้าไปในโครงสร้างที่สามารถค้นหาได้
英伟达 จัดสร้างไลบรารีพื้นฐานสองตัว:
สองแพลตฟอร์มนี้จะกลายเป็นหนึ่งในแพลตฟอร์มพื้นฐานสำคัญในอนาคต
วันนี้ เรายังประกาศความร่วมมือกับหลายบริษัท IBM — ผู้คิดค้นภาษา SQL จะใช้ cuDF เร่งความเร็วแพลตฟอร์ม WatsonX Data ของตน Dell ร่วมกับเรา สร้างแพลตฟอร์มข้อมูล AI ของ Dell รวมทั้งปรับปรุงประสิทธิภาพในโครงการจริงของ NTT Data Google Cloud — เราเร่งความเร็วทั้ง Vertex AI และ BigQuery และร่วมกับ Snapchat ลดต้นทุนการคำนวณลงเกือบ 80%
การเร่งความเร็วในการคำนวณให้ประโยชน์สามประการ: ความเร็ว, ขนาด, ต้นทุน ซึ่งเป็นแนวคิดเดียวกับกฎของ Moore — การเร่งความเร็วในการคำนวณ ทำให้ประสิทธิภาพเพิ่มขึ้น และปรับปรุงอัลกอริธึมอย่างต่อเนื่อง ทำให้ทุกคนสามารถลดต้นทุนการคำนวณได้อย่างต่อเนื่อง
英伟达 สร้างแพลตฟอร์มการคำนวณเร่งความเร็ว ซึ่งรวบรวมไลบรารีต่างๆ เช่น RTX, cuDF, cuVS เป็นต้น ไลบรารีเหล่านี้ถูกรวมเข้าในคลาวด์และ OEM ทั่วโลก เพื่อให้เข้าถึงผู้ใช้ทั่วโลก
ความร่วมมือกับผู้ให้บริการคลาวด์หลัก
Google Cloud: เราเร่งความเร็ว Vertex AI และ BigQuery ผนวกกับ JAX/XLA ซึ่ง英伟达 เป็นเพียงผู้เดียวที่ทำงานได้ดีทั้งใน PyTorch และ JAX/XLA เรานำลูกค้าเช่น Base10, CrowdStrike, Puma, Salesforce เข้าสู่ระบบนิเวศของ Google Cloud
AWS: เราเร่งความเร็ว EMR, SageMaker และ Bedrock ซึ่งมีความลึกซึ้งในความร่วมมือ ปีนี้ผมรู้สึกตื่นเต้นมาก เพราะเราจะนำ OpenAI เข้าสู่ AWS ซึ่งจะช่วยผลักดันการใช้คลาวด์ของ AWS ให้เติบโตอย่างมาก ช่วยให้ OpenAI ขยายการให้บริการในภูมิภาคและขยายขนาดการคำนวณ
Microsoft Azure: 超算 100 PFLOPS ของ英伟达 เป็น超算เครื่องแรกที่สร้างขึ้น และเป็น超算เครื่องแรกที่ติดตั้งบน Azure ซึ่งเป็นรากฐานสำคัญของความร่วมมือกับ OpenAI เราเร่งความเร็วบริการคลาวด์ Azure และ AI Foundry ร่วมกันขยายพื้นที่ให้บริการ Azure และทำงานร่วมกันใน Bing Search ซึ่งความสามารถ Confidential Computing ของเรา — ทำให้แม้แต่ผู้ให้บริการก็ไม่สามารถดูข้อมูลและโมเดลของผู้ใช้ได้ — GPU ของ英伟达 เป็น GPU ตัวแรกที่รองรับ Confidential Computing ซึ่งสามารถรองรับการติดตั้งโมเดลของ OpenAI และ Anthropic ในคลาวด์ทั่วโลก ตัวอย่างเช่น การเร่งความเร็ว EDA และ CAD ของ Synopsys ก็ทำบน Azure
Oracle: เราเป็นลูกค้ารายแรกของ Oracle ในด้าน AI ผมภูมิใจที่ได้อธิบายแนวคิด AI Cloud ให้ Oracle ฟัง จากนั้น Oracle ก็เติบโตอย่างรวดเร็ว เราก็นำ Cohere, Fireworks, OpenAI และพันธมิตรอื่นๆ เข้าสู่ระบบของพวกเขา
CoreWeave: คลาวด์ AI ที่เป็นเจ้าของโดยเน้น GPU เป็นหลัก มีลูกค้าชั้นนำและเติบโตอย่างรวดเร็ว
Palantir + Dell: ร่วมกันสร้างแพลตฟอร์ม AI ใหม่ ซึ่งอิงกับแพลตฟอร์ม Ontology ของ Palantir และแพลตฟอร์ม AI ที่สามารถติดตั้งในทุกประเทศ ทุกสภาพแวดล้อมแบบแยกอากาศ (air-gapped) ได้อย่างสมบูรณ์ ตั้งแต่การประมวลผลข้อมูล (เวกเตอร์หรือเชิงโครงสร้าง) ไปจนถึงการเร่งความเร็ว AI ทั้งหมด
英伟达 ได้สร้างความสัมพันธ์เชิงลึกกับผู้ให้บริการคลาวด์ทั่วโลก — นำลูกค้าเข้าสู่คลาวด์ เป็นระบบนิเวศที่เป็นประโยชน์ร่วมกัน
英伟达 เป็นบริษัทแรกในโลกที่บูรณาการแนวตั้งและเปิดกว้างแนวนอน
โมเดลนี้มีเหตุผลง่ายๆ: การเร่งความเร็วในการคำนวณไม่ใช่แค่ปัญหาเกี่ยวกับชิปหรือระบบ แต่คือการเร่งความเร็วของแอปพลิเคชัน เทคโนโลยี CPU ช่วยให้คอมพิวเตอร์ทำงานได้เร็วขึ้น แต่ตอนนี้ถึงจุดอิ่มตัวแล้ว ในอนาคต การเร่งความเร็วเฉพาะด้านหรือเฉพาะกลุ่ม จะเป็นกุญแจสำคัญในการสร้างความก้าวหน้าและลดต้นทุนอย่างต่อเนื่อง
นี่คือเหตุผลที่英伟达 ต้องลงลึกในแต่ละไลบรารี แต่ละอุตสาหกรรม แต่ละภาคส่วน เราเป็นบริษัทที่บูรณาการแนวตั้งอย่างเต็มที่ ไม่มีทางเลือกอื่น เราต้องเข้าใจแอปพลิเคชัน เข้าใจอุตสาหกรรม และเข้าใจอัลกอริธึมอย่างลึกซึ้ง แล้วสามารถนำไปใช้ในทุกบริบท — ทั้งศูนย์ข้อมูล, คลาวด์, ระบบในเครื่อง, ขอบเขต และหุ่นยนต์
ในเวลาเดียวกัน เราก็เปิดกว้างในแนวนอน พร้อมที่จะบูรณาการเทคโนโลยีของเราเข้าสู่แพลตฟอร์มของพันธมิตร เพื่อให้ทุกคนทั่วโลกได้รับประโยชน์จากการเร่งความเร็วในการคำนวณ
โครงสร้างผู้เข้าร่วมงาน GTC ครั้งนี้ สะท้อนให้เห็นสิ่งนี้อย่างชัดเจน ในกลุ่มผู้เข้าร่วมสูงสุดคือกลุ่มบริการทางการเงิน — ซึ่งเป็นกลุ่มนักพัฒนามากกว่าผู้เทรด ระบบนิเวศของเรา ครอบคลุมห่วงโซ่อุปทานทั้งบนและล่าง ไม่ว่าจะเป็นบริษัทที่ก่อตั้งมานาน 50, 70 หรือ 150 ปี ก็มีปีที่ดีที่สุดในประวัติศาสตร์เมื่อปีที่แล้ว เราอยู่จุดเริ่มต้นของสิ่งที่สำคัญมากๆ
ในแต่ละภาคส่วน 英伟达 ได้วางรากฐานอย่างลึกซึ้งแล้ว:
ทุกภาคส่วนนี้ ล้วนใช้ไลบรารี CUDA-X ซึ่งเป็นรากฐานของ英伟达 ในฐานะบริษัทด้านอัลกอริธึม ไลบรารีเหล่านี้คือสินทรัพย์หลักของบริษัท ทำให้แพลตฟอร์มคำนวณสามารถสร้างคุณค่าในแต่ละอุตสาหกรรมได้จริง
หนึ่งในไลบรารีสำคัญที่สุด คือ cuDNN (CUDA Deep Neural Network Library) ซึ่งปฏิวัติวงการ AI และเป็นจุดเริ่มต้นของ AI ยุคใหม่
(เล่นวิดีโอสาธิต CUDA-X)
ทุกสิ่งที่คุณเห็นเป็นการจำลอง — รวมถึงตัวแก้สมการทางฟิสิกส์ โมเดล AI สำหรับจำลองทางฟิสิกส์ และโมเดลหุ่นยนต์ทางฟิสิกส์ ทั้งหมดเป็นการจำลอง ไม่มีอนิเมชันหรือการผูกมัดข้อต่อใดๆ นี่คือความสามารถหลักของ英伟达: การเข้าใจลึกซึ้งในอัลกอริธึมและการผสานกับแพลตฟอร์มคำนวณอย่างเป็นระบบ ปลดล็อกโอกาสเหล่านี้
คุณเพิ่งเห็น Walmart, L’Oréal, JPMorgan, Roche, Toyota และบริษัทชั้นนำอื่นๆ รวมถึงบริษัทที่คุณไม่เคยได้ยินชื่อ — เราเรียกพวกเขาว่า “องค์กร AI แบบเนทีฟ” รายชื่อนี้ใหญ่มาก มีทั้ง OpenAI, Anthropic และบริษัทใหม่ในแต่ละภาคส่วน
ในสองปีที่ผ่านมา อุตสาหกรรมนี้เติบโตอย่างรวดเร็ว การลงทุนในสตาร์ทอัพสูงถึง 150 พันล้านดอลลาร์ ซึ่งเป็นสถิติสูงสุดในประวัติศาสตร์ ยิ่งไปกว่านั้น การลงทุนรายเดียวก็เปลี่ยนจากหลักแสนดอลลาร์ เป็นหลักล้าน หลักสิบล้าน ดอลลาร์ เหตุผลเดียวคือ นี่เป็นครั้งแรกในประวัติศาสตร์ที่ทุกบริษัทในกลุ่มนี้ ต้องการการคำนวณจำนวนมาก และ Token ก็เป็นทั้งสิ่งที่สร้างและเพิ่มมูลค่าให้กับ AI ของพวกเขา
เช่นเดียวกับการปฏิวัติ PC, อินเทอร์เน็ต, โมบายล์ คอมพิวติ้ง ที่สร้างบริษัทยุคใหม่ขึ้นมา อุตสาหกรรมการคำนวณยุคนี้ก็จะสร้างบริษัทที่มีอิทธิพลในอนาคตเช่นกัน
สองปีที่ผ่านมา เกิดอะไรขึ้นบ้าง? มีสามเหตุการณ์สำคัญ
หนึ่ง: ChatGPT เปิดยุค Generative AI (ปลายปี 2022 ถึง 2023)
มันไม่ใช่แค่การรับรู้และเข้าใจ แต่สามารถสร้างเนื้อหาเฉพาะตัวได้ ผมแสดงให้เห็นว่าการผสมผสาน Generative AI กับกราฟิกคอมพิวเตอร์ เปลี่ยนแปลงวิธีการคำนวณอย่างรุนแรง — จากการค้นหาเป็นการสร้าง ซึ่งส่งผลต่อสถาปัตยกรรม, การปรับใช้ และความหมายโดยรวม
สอง: AI ที่สามารถสรุปผล (Reasoning AI), ตัวอย่างเช่น o1
ความสามารถในการสรุปผล ทำให้ AI สามารถสะท้อนความคิด วางแผน แยกแยะปัญหา — แบ่งปัญหาที่เข้าใจไม่ได้ให้เป็นขั้นตอนที่จัดการได้ง่ายขึ้น o1 ทำให้ Generative AI มีความน่าเชื่อถือ สามารถอ้างอิงข้อมูลจริงได้ เพื่อให้ทำเช่นนี้ ต้องใช้ Token สำหรับบริบทและผลลัพธ์ในการคิดมากขึ้น การคำนวณก็เพิ่มขึ้นอย่างมาก
สาม: Claude Code, โมเดล Agent ตัวแรก
มันสามารถอ่านไฟล์ เขียนโค้ด คอมไพล์ ทดสอบ และปรับปรุงใหม่ได้อย่างสมบูรณ์ Claude Code ปฏิวัติวิศ