NVDA — NVIDIA Corporation
บริษัท เอ็นวีไอเดีย คอร์ปอเรชั่น
Sector: Semiconductors | Exchange: NASDAQ | Updated: 2026-04-08
NVIDIA is a global leader in GPU, AI accelerators and high-performance computing. Founded in 1993 by Jensen Huang, now a data center-scale AI infrastructure company reshaping all industries.
Business Model
NVIDIA Corporation เป็นผู้นำโลกด้าน accelerated computing ตั้งแต่ GPU ดั้งเดิมสำหรับ gaming จนกลายเป็น platform หลักสำหรับ AI/ML training และ inference ในระดับ data center รายได้หลักมาจาก Data Center (H100/H200/Blackwell GPU) ที่ขับเคลื่อนโดยความต้องการ AI infrastructure จาก hyperscalers และองค์กรทั่วโลก NVIDIA ใช้ full-stack model รวม hardware, software (CUDA, AI Enterprise, NIM Microservices) และ ecosystem (7.5M CUDA developers) เพื่อสร้าง switching cost สูง
Competitive Position
NVIDIA มี moat แข็งแกร่งจาก CUDA ecosystem ที่มีนักพัฒนา 7.5M คน ใช้เวลากว่า 15 ปีสร้าง Full-stack platform approach รวม chip architecture, systems, software, และ developer tools ทำให้ลูกค้าย้าย platform ยาก แม้มีคู่แข่งจาก AMD (MI300X), Google TPU, AWS Trainium NVIDIA ตอบโต้ด้วย NVLink Fusion ที่รองรับการ integrate กับ custom XPU ของ hyperscalers
Moat Factors
- CUDA ecosystem — 7.5M developers, 15+ ปีของ software library และ optimization
- Full-stack integration — hardware (GPU) + networking (NVLink/InfiniBand) + software (AI Enterprise) + cloud (DGX Cloud)
- First-mover advantage ใน AI accelerator — H100 กลายเป็น standard สำหรับ LLM training
- Manufacturing partnership กับ TSMC 4nm/3nm — ทำให้มี performance leadership ต่อเนื่อง
Business Segments
Data Center — GPU สำหรับ AI training/inference, networking (InfiniBand/Ethernet), DGX systems, cloud instances ผ่าน DGX Cloud. ลูกค้าหลัก: Microsoft, Meta, Google, Amazon, Oracle
Gaming — GeForce RTX GPU สำหรับ PC gaming และ notebook, รวม DLSS AI upscaling technology. Segment ดั้งเดิมของ NVIDIA
Professional Visualization — RTX/Quadro workstation GPU สำหรับ content creation, CAD, scientific visualization, และ Omniverse platform
Automotive — DRIVE platform — SoC + software สำหรับ ADAS และ fully autonomous vehicles. ลูกค้า: Mercedes-Benz, Toyota, BYD, XPeng. รายได้กำลังเติบโตเร็ว
OEM & Other — GPU สำหรับ crypto mining, embedded systems, และ OEM channels
Management
Jensen Huang (CEO & Co-founder)
ผู้ก่อตั้งในปี 1993 อายุ 61 ปี (2026) — วิสัยทัศน์ระยะยาวที่แม่นยำ ทั้งการ bet on GPU computing, CUDA ecosystem, และ AI infrastructure. Execution score: high
Colette Kress (EVP & CFO)
CFO ตั้งแต่ปี 2013 บริหารการเติบโต revenue จาก ~$4B → $60B+ ด้วย discipline ทางการเงินสูง
Debora Shoquist (EVP Operations)
บริหาร supply chain และ manufacturing relationships กับ TSMC, Samsung รับผิดชอบการ scale production Blackwell
Jay Puri (EVP Worldwide Field Operations)
ขับเคลื่อนการขาย enterprise และ partnerships ทั่วโลก รวมถึง sovereign AI deals
Investment Case
Bull Case
- AI infrastructure capex supercycle ยังอยู่ในช่วงต้น — hyperscalers ประกาศ capex รวม $300B+ สำหรับปี 2025-2026
- Rubin platform (FY2027H2) และ Blackwell Ultra ต่ออายุ technology leadership อีกอย่างน้อย 2-3 ปี
- CUDA moat สร้าง switching cost สูง — developer community 7.5M คนทำให้ ecosystem lock-in แข็งแกร่ง
- Software revenue กำลังเติบโต — AI Enterprise, NIM Microservices เพิ่ม recurring revenue ลด cyclicality
- Physical AI / Robotics เป็น wave ถัดไป — NVIDIA positioning ด้วย Isaac Sim, DRIVE platform, Cosmos
- Inference demand แทนที่ training demand — แม้ training churn ลง แต่ inference workload กำลังขยาย
- NVLink Fusion เปิดให้ hyperscalers ใช้ custom CPU กับ NVIDIA GPU — ป้องกัน displacement โดย custom ASIC
Bear Case
- Export controls จีน — H20 อาจถูก ban ทำให้สูญ revenue ~$13B/ปีทันที (ประมาณ 13% ของ FY2026 revenue)
- Custom ASIC competition — Google TPU, AWS Trainium, Meta MTIA กำลัง mature ทำให้ hyperscalers ลด NVDA dependency
- Customer concentration สูง — Microsoft, Meta, Google, Amazon คิดเป็น ~40%+ ของ revenue
- Valuation premium สูง — ถ้า AI capex pull back แม้เพียงเล็กน้อย multiple compression รุนแรง
- Supply chain bottleneck — พึ่ง TSMC สำหรับ advanced node อาจจำกัด scaling ในช่วง demand surge
- AMD MI300X + MI400 กำลัง close the gap โดยเฉพาะ inference workload ที่ price-sensitive กว่า training
Key Risks
- US Export Controls (China) (high): กฎระเบียบส่งออกสหรัฐฯ จำกัดการขาย GPU ขั้นสูงในจีน H20 ยังอยู่ได้แต่ถูกคุกคาม ทำให้ NVDA สูญเสีย TAM สำคัญในตลาดที่เติบโตเร็ว
- Competition from Custom ASICs & AMD (high): Hyperscalers พัฒนา in-house AI chips (Google TPU5, AWS Trainium2, Meta MTIA) AMD MI300X กำลัง competitive สำหรับ inference — อาจกัดเซาะ market share ระยะกลาง
- Technology Obsolescence (high): วงจรนวัตกรรม AI accelerator สั้นมาก ถ้า NVIDIA สูญเสีย performance leadership แม้เพียง 1 generation ลูกค้าอาจเปลี่ยน platform
- AI Capex Cycle Slowdown (medium): ถ้าเศรษฐกิจถดถอยหรือ ROI จาก AI investment ไม่ชัดเจน hyperscalers อาจตัด capex กระทบ demand อย่างรุนแรงเนื่องจาก NVDA revenue concentration
- Supply Chain / TSMC Dependency (medium): NVIDIA พึ่ง TSMC เกือบ 100% สำหรับ advanced node การหยุดชะงักจาก geopolitical tension (Taiwan) หรือ capacity constraints กระทบ production plan
- Regulatory & Antitrust (medium): ความโดดเด่นใน AI accelerator market อาจนำมาซึ่งการสอบสวน antitrust ในสหรัฐฯ EU และจีน ซึ่งอาจจำกัด M&A และ pricing power
- Cybersecurity (medium): ในฐานะ critical AI infrastructure provider NVIDIA เป็นเป้าหมายของ cyber attacks ที่อาจ compromise IP และกระทบ supply chain
Roadmap
Delivery: 0/14 (0%)
| Commitment | Date Said | Source | Follow-up | |
|---|---|---|---|---|
| ⏳ | Commence production shipments of NVIDIA Rubin platform in second half of fiscal year 2027 | 2027-07-01 | 10-K | |
| ⏳ | Provide end-to-end platform for physical AI spanning data center infrastructure, open models, systems, embedded compute modules, and software stacks | 2026-03-30 | 10-K | |
| ⏳ | Deliver up to 10x reduction in cost per token compared to Blackwell with Rubin platform | 2026-03-30 | 10-K | |
| ⏳ | Deliver significant increase in token throughput and reduction in cost per token compared to Hopper generation with Blackwell Ultra | 2026-03-30 | 10-K | |
| ⏳ | Accelerate release cadence of open AI model platforms including NVIDIA Nemotron for agentic AI and Cosmos for physical AI | 2026-03-30 | 10-K | |
| ⏳ | Deliver continued performance leaps that outpace Moore’s Law by leveraging innovation across architecture, chip design, system, interconnect, algorithm, and software layers | 2026-03-30 | 10-K | |
| ⏳ | Introduce neural graphics combining AI models with traditional rendering to boost game performance, image quality, and interactivity | 2026-03-30 | 10-K | |
| ⏳ | Deliver full stack end-to-end solution for AV market under DRIVE Hyperion platform | 2026-03-30 | 10-K | |
| ⏳ | Launch next generation of DLSS technology powered by new transformer model architecture | 2026-03-30 | 10-K | |
| ⏳ | Continue to add AI-specific features to GPU architecture to extend leadership position | 2026-03-30 | 10-K | |
| ⏳ | Launch NVIDIA Blackwell Ultra platform optimized for agentic, reasoning, and physical AI | 2026-01-31 | 10-K | |
| ⏳ | Launch NVIDIA Rubin platform for agentic AI and reasoning | 2026-01-31 | 10-K | |
| ⏳ | Scale Blackwell architecture for gaming and GeForce NOW | 2026-01-31 | 10-K | |
| ⏳ | Launch NVIDIA Blackwell GeForce RTX 50 Series family of desktop and laptop GPUs | 2025-01-31 | 10-K | Verify launch/availability timelines; update status and add evidence link. |
Management Quotes
“We work to deliver continued performance leaps that outpace Moore’s Law by leveraging innovation across the architecture, chip design, system, interconnect, algorithm, and software layers.”
— NVIDIA Management, 10-K (2026-03-30)
#strategy
“We expect a broader set of PC users to choose NVIDIA GPUs for running these applications locally on their PC, which is critical for privacy, latency, and cost-sensitive AI applications.”
— NVIDIA Management, 10-K (2026-03-30)
#growth
“Our compute solutions include all three major processing units in AI servers – GPUs, CPUs, and DPUs.”
— NVIDIA Management, 10-K (2026-03-30)
#strategy
“In fiscal year 2026, we unveiled the NVIDIA Rubin platform, which is expected to commence production shipments in the second half of fiscal year 2027.”
— NVIDIA Management, 10-K (2026-03-30)
#guidance
“Our accelerated computing platform can solve complex problems in significantly less time and with lower power consumption than alternative computational approaches.”
— NVIDIA Management, 10-K (2026-03-30)
#strategy
“Our AI technology leadership is reinforced by our large and expanding ecosystem.”
— NVIDIA Management, 10-K (2026-03-30)
#growth
“NVIDIA is now a data center scale AI infrastructure company reshaping all industries.”
— NVIDIA Management, 10-K (2026-03-30)
#strategy
“We provide a complete, end-to-end accelerated computing platform for AI, addressing both training and inferencing.”
— NVIDIA Management, 10-K (2026-03-30)
#strategy
Analysis Notes
10-K Analysis (2026-03-30)
Rating: ⭐⭐⭐
Tags: strategy
Financial Performance
NVIDIA has successfully transitioned from a GPU company to a data center-scale AI infrastructure leader. The Data Center platform now represents the core growth engine.
Strategic Priorities
- Advancing accelerated computing platform across architecture, chip design, systems, and software
- Extending AI leadership with end-to-end platform for training and inference
- Expanding autonomous vehicle platform with AI-based hardware/software solution
- Rubin platform expected to commence production shipments in H2 FY2027
Management Tone
Bullish
Financials
Data available for: 2020, 2021, 2022, 2023, 2024, 2025, 2026 (USD Million)