ใน Nvidia GTC 2026 ฮวน เผิง ได้แสดงความมั่นใจว่า: บริษัทที่เกิดจาก AI โดยกำเนิดจำนวนมากขึ้นเรื่อย ๆ เป็นผลมาจากการที่ NVIDIA “นิยามใหม่ของการคำนวณ” เขากล่าวว่า เราอยู่ในช่วงเริ่มต้นของการเปลี่ยนแปลงแพลตฟอร์มใหม่ ซึ่งคล้ายคลึงกับการปฏิวัติคอมพิวเตอร์ส่วนบุคคล ตลอดสองปีที่ผ่านมา ด้วยการเปิดตัว ChatGPT ยุคของ AI สร้างสรรค์ได้เริ่มต้นอย่างแท้จริงแล้ว
ฮวน เผิง แสดงภาพสไลด์สำคัญที่เปิดเผยว่าตลาดพลังการประมวลผล AI ทั่วโลกกำลังเข้าสู่ช่วงการเติบโตอย่างระเบิดรุนแรง แผนภาพนี้แสดงให้เห็นว่า ขนาดตลาดศูนย์ข้อมูลทั่วโลก (TAM) ได้พุ่งจากประมาณ 500 พันล้านดอลลาร์ในปี 2025 ไปสู่กว่า 1 ล้านล้านดอลลาร์ในปีเดียวกัน และยังคงขยายตัวอย่างต่อเนื่อง แนวคิดหลักในสไลด์คือ “Inference Inflection” (จุดเปลี่ยนของการอนุมาน)
ในอดีต การพัฒนา AI มุ่งเน้นไปที่การฝึกสอน (Training) ซึ่งเป็นการให้โมเดลเรียนรู้จากข้อมูลจำนวนมาก แต่เมื่อโมเดลขนาดใหญ่พัฒนาขึ้น AI ก็เริ่มถูกนำไปใช้ในผลิตภัณฑ์และบริการต่าง ๆ เช่น บริการลูกค้า การสร้างภาพ และการพัฒนาโปรแกรม ซึ่งหมายความว่าศูนย์กลางของตลาดกำลังเปลี่ยนจากการฝึกสอนเป็นการอนุมาน (Inference) เมื่อ AI ถูกเรียกใช้งานโดยผู้ใช้หลายพันล้านคนพร้อมกัน ทุกคำถาม การสร้างภาพหรือวิดีโอ ต้องการพลังการคำนวณ ซึ่งความต้องการนี้จะเติบโตแบบเรขาคณิต
ในตอนต้นของการกล่าวสุนทรพจน์ ฮวน เผิง ใช้เวลานานในการแนะนำการใช้งานของซอฟต์แวร์สแต็กของ Nvidia ในอุตสาหกรรมต่าง ๆ โดยเฉพาะอย่างยิ่ง ระบบนิเวศของไลบรารี CUDA-X เขากล่าวว่า “เราเป็นบริษัทด้านอัลกอริทึม” เขาย้ำว่า การนำ AI ไปใช้ไม่ได้ขึ้นอยู่กับ Generative AI เท่านั้น “การโยน GenAI ไปบนผนังเพื่อดูว่ามันจะสำเร็จหรือไม่ไม่ใช่กลยุทธ์” เขาเชื่อว่าปัญหาที่แต่ละอุตสาหกรรมเผชิญมีความแตกต่างกันอย่างมาก ดังนั้น Nvidia จึงต้องพัฒนาไลบรารีเฉพาะด้าน (domain-specific libraries)
จุดเปลี่ยนของการอนุมาน: ขนาดตลาดศูนย์ข้อมูลทั่วโลกทะลุ 1 ล้านดอลลาร์
ในหัวข้อการบรรยายหลักของ Nvidia GTC 2026 ฮวน เผิง แสดงภาพสไลด์สำคัญที่เปิดเผยว่าตลาดพลังการประมวลผล AI ทั่วโลกกำลังเข้าสู่ช่วงการเติบโตอย่างระเบิดรุนแรง แผนภาพนี้แสดงให้เห็นว่า ขนาดตลาดศูนย์ข้อมูลทั่วโลก (TAM) ได้พุ่งจากประมาณ 500 พันล้านดอลลาร์ในปี 2025 ไปสู่กว่า 1 ล้านล้านดอลลาร์ในปีเดียวกัน และยังคงขยายตัวอย่างต่อเนื่อง
แนวคิดหลักในสไลด์คือ “Inference Inflection” จุดเปลี่ยนของการอนุมาน ในอดีต การพัฒนา AI มุ่งเน้นไปที่การฝึกสอนโมเดลให้เรียนรู้จากข้อมูลจำนวนมาก แต่เมื่อโมเดลขนาดใหญ่พัฒนาขึ้น AI ก็เริ่มถูกนำไปใช้ในผลิตภัณฑ์และบริการต่าง ๆ เช่น การค้นหา บริการลูกค้า การสร้างภาพและวิดีโอ ซึ่งหมายความว่าศูนย์กลางของตลาดกำลังเปลี่ยนจากการฝึกสอนเป็นการอนุมาน
เมื่อ AI ถูกเรียกใช้งานโดยผู้ใช้หลายพันล้านคนพร้อมกัน ทุกคำถาม การสร้างภาพหรือวิดีโอ ต้องการพลังการคำนวณ ความต้องการนี้จะเติบโตแบบเรขาคณิต ซึ่ง Nvidia มองว่าเป็นแรงผลักดันสำคัญที่ทำให้ตลาดศูนย์ข้อมูล AI มูลค่าหนึ่งล้านล้านดอลลาร์เติบโตขึ้น
แผนภาพด้านขวาของสไลด์แสดงโครงสร้างตลาดในปัจจุบัน โดยประมาณ 60% ของความต้องการมาจากผู้ให้บริการคลาวด์ขนาดใหญ่ (Hyperscalers) และบริษัท AI โดยกำเนิด (AI-native companies) ซึ่งรวมถึง:
Amazon Web Services
Google Cloud
Microsoft
และผู้พัฒนาโมเดล AI:
OpenAI
Anthropic
xAI
อีก 40% ของความต้องการตลาด มาจากกลุ่มใหม่ที่ Nvidia เน้นย้ำในช่วงไม่กี่ปีที่ผ่านมา รวมถึง Sovereign AI (AI อธิปไตย) อุตสาหกรรมและภาคธุรกิจ ซึ่ง AI อธิปไตยหมายถึง การสร้างโครงสร้างพื้นฐาน AI สำหรับแต่ละประเทศ เช่น:
สร้างซูเปอร์คอมพิวเตอร์ AI ระดับชาติ
ฝึกโมเดลภาษาท้องถิ่น
สร้างอธิปไตยข้อมูลระดับชาติ
นอกจากนี้ อุตสาหกรรมดั้งเดิมก็เริ่มนำ AI ไปใช้ในวงกว้าง เช่น:
ยานยนต์และระบบขับเคลื่อนอัตโนมัติ
การผลิตและโรงงานอัจฉริยะ
วิเคราะห์ภาพทางการแพทย์
โมเดลความเสี่ยงทางการเงิน
กลางสไลด์ยังแสดงภาพของระบบนิเวศโมเดล AI หลักในปัจจุบัน เช่น ChatGPT, Gemini, Grok และโมเดลโอเพนซอร์สต่าง ๆ โดย Anthropic และ Meta Superintelligence Labs ถูกระบุว่าเป็นพลังใหม่ที่เกิดขึ้นหลังปี 2025 ซึ่งแสดงให้เห็นว่าการแข่งขันด้านโมเดล AI กำลังขยายตัวอย่างรวดเร็ว
GTC 2026 ฮวน เผิง: Nvidia เป็น “บริษัทอัลกอริทึม” โดยแท้จริง
ในช่วงการบรรยาย เขาใช้เวลานานในการแนะนำการใช้งานของซอฟต์แวร์สแต็กของ Nvidia ในอุตสาหกรรมต่าง ๆ ตั้งแต่การแพทย์ การผลิต การเงิน ไปจนถึงคลาวด์คอมพิวติ้ง เขาย้ำว่า ความสามารถทั้งหมดสุดท้ายแล้วกลับไปที่ระบบนิเวศของ CUDA-X เขากล่าวว่า “เราเป็นบริษัทด้านอัลกอริทึม” และอธิบายว่า CUDA-X เป็น “อัญมณีบนมงกุฎ” ของ Nvidia ซึ่ง GPU ที่แท้จริงมีคุณค่าอยู่ที่แพลตฟอร์มซอฟต์แวร์ ไม่ใช่แค่ฮาร์ดแวร์เท่านั้น
หนึ่งในส่วนประกอบสำคัญคือ cuDNN ซึ่งเป็นไลบรารีที่ออกแบบมาเพื่อเร่งความเร็ว GPU สำหรับเครือข่ายประสาทลึก (Deep Neural Networks) ซึ่งได้รับความนิยมอย่างแพร่หลายจากเฟรมเวิร์ก AI ชั้นนำ และกลายเป็นส่วนสำคัญของโครงสร้างพื้นฐานการเรียนรู้เชิงลึกในยุคปัจจุบัน
ฮวน เผิง ย้ำอีกครั้งว่าซอฟต์แวร์มีความสำคัญต่อระบบนิเวศ AI และระบุว่า cuDNN เป็นหนึ่งในไลบรารีที่สำคัญที่สุดของบริษัท และถึงกับกล่าวว่าเป็นการระเบิดครั้งใหญ่ที่ทำให้เกิดยุค AI สมัยใหม่ Nvidia ได้แสดงวิดีโอสั้นเกี่ยวกับระบบนิเวศ CUDA-X ซึ่งประกอบด้วยภาพที่สร้างขึ้นโดย AI และเทคโนโลยีจำลอง ที่เกือบจะเป็นของปลอมเพื่อเน้นย้ำความก้าวหน้าของ GPU ในการเร่งความเร็วและเฟรมเวิร์กการเรียนรู้เชิงลึกด้านการมองเห็น
ฮวน เผิง: AI ต้องการ “ไลบรารีเฉพาะอุตสาหกรรม”
เขายังชี้ให้เห็นว่า การนำ AI ไปใช้ไม่ได้ขึ้นอยู่กับ Generative AI เท่านั้น “โยน GenAI ไปบนผนังเพื่อดูว่ามันจะสำเร็จหรือไม่ไม่ใช่กลยุทธ์” เขาเชื่อว่าปัญหาที่แต่ละอุตสาหกรรมเผชิญมีความแตกต่างกันอย่างมาก ดังนั้น Nvidia จึงต้องพัฒนาไลบรารีเฉพาะด้าน (domain-specific libraries) เพื่อให้เหมาะสมกับแต่ละภาคส่วน
นั่นคือเหตุผลที่ระบบนิเวศ CUDA-X ยังคงขยายตัวอย่างต่อเนื่อง ปัจจุบันครอบคลุมหลายสิบภาคส่วน เช่น:
วิทยาศาสตร์คำนวณ
ภาพทางการแพทย์
การขับเคลื่อนอัตโนมัติ
วิเคราะห์การเงิน
วิศวกรรมข้อมูล
ไลบรารีเหล่านี้ช่วยให้ GPU ทำงานได้เต็มประสิทธิภาพในแต่ละบริบทอุตสาหกรรม
กลยุทธ์ AI แบบบูรณาการแนวตั้งและเปิดกว้างแนวนอน
ฮวน เผิง อธิบายกลยุทธ์ของ Nvidia ว่าเป็น “บูรณาการแนวตั้งแต่ต้นจนจบ แต่เปิดกว้างในแนวนอน” ซึ่งหมายความว่า Nvidia ให้บริการเต็มรูปแบบตั้งแต่ชิป ระบบ ซอฟต์แวร์ ไปจนถึงแพลตฟอร์มแอปพลิเคชัน แต่ก็อนุญาตให้นักพัฒนาและบริษัทต่าง ๆ พัฒนาบนแพลตฟอร์มของตนเองได้ ในบริบทของความต้องการการคำนวณ AI ที่พุ่งสูงขึ้น Nvidia เชื่อว่ารูปแบบนี้เป็นวิธีเดียวที่จะผลักดันการคำนวณเร่งความเร็ว (accelerated computing)
จุดสำคัญของสนามรบ AI: ข้อมูลที่ไม่มีโครงสร้าง
ฮวน เผิง ยังกล่าวถึงภารกิจสำคัญอีกอย่างของ AI คือ การจัดการกับข้อมูลที่ไม่มีโครงสร้าง (unstructured data) ซึ่งประมาณ 90% ของข้อมูลทั่วโลกเป็นข้อมูลไม่มีโครงสร้าง เช่น ภาพ เสียง คำพูด และข้อความธรรมชาติ แต่ในอดีตถูกมองว่าเกือบไม่มีประโยชน์เนื่องจากยากต่อการค้นหาและวิเคราะห์ แต่ด้วยเทคโนโลยี AI และ GPU ที่พัฒนาขึ้น ข้อมูลเหล่านี้จึงค่อย ๆ กลายเป็นสินทรัพย์ที่สามารถวิเคราะห์ได้
ตัวอย่างเช่น IBM ใช้ Nvidia cuDF ซึ่งเป็นเฟรมเวิร์ก GPU สำหรับเร่งความเร็วในการประมวลผลข้อมูลบนแพลตฟอร์ม WatsonX เพื่อให้สามารถวิเคราะห์ข้อมูลไม่มีโครงสร้างจำนวนมากได้อย่างรวดเร็วและมีประสิทธิภาพ
OpenAI จะนำเข้า AWS เพื่อบรรเทาความกดดันด้านพลังการประมวลผล
เมื่อพูดถึงโครงสร้างพื้นฐาน AI ฮวน เผิง ยังกล่าวถึงความต้องการพลังการประมวลผลของ OpenAI ซึ่งปัจจุบัน “ถูกจำกัดด้วยพลังการประมวลผลอย่างมาก” และในปีนี้ บริษัทจะนำเข้าโครงสร้างพื้นฐานของ Amazon Web Services เพื่อบรรเทาความต้องการการคำนวณที่มหาศาลนี้