🍀 Spring Appointment, Lucky Draw Gifts! Growth Value Issue 1️⃣7️⃣ Spring Lucky Draw Carnival Begins!
Seize Spring Luck! 👉 https://www.gate.com/activities/pointprize?now_period=17
🌟 How to Participate?
1️⃣ Enter [Plaza] personal homepage, click the points icon next to your avatar to enter [Community Center]
2️⃣ Complete plaza or hot chat tasks like posting, commenting, liking, and speaking to earn growth value
🎁 Every 300 points can draw once, 10g gold bars, Gate Red Bull gift boxes, VIP experience cards and more great prizes await you!
Details 👉 https://www.gate.com/announcements/article/
GPU的未来会怎样?理解2026年AI基础设施繁荣中GPU的未来
当我们今天谈论人工智能基础设施时,一个问题主导了投资者的讨论:GPU 霸主地位的时代会不会走到尽头?答案比你可能想象的要更为复杂。尽管图形处理单元(GPU)多年来一直是 AI 数据中心的主力,但 GPU 的未来正在迅速演进。真正的故事并不是 GPU 正在消失——而是整个 AI 芯片生态系统正在走向成熟,而理解这一变化可能会解锁重大的投资机会。
这种转型的规模令人震撼。根据 PwC 的全球分析,人工智能到 2030 年可能为全球经济贡献 15.7 万亿美元。生产率提升带来 6.6 万亿美元,面向消费者的应用贡献 9.1 万亿美元。在全球范围内,建设 AI 基础设施的竞赛已成为科技公司最高优先级之一。数据中心部署的加速发展,创造了对驱动这些设施的专用处理器前所未有的需求。
从主导到扰动:为何 GPU 至高地位正在受到挑战
英伟达的崛起可谓势如破竹。根据华尔街分析师的说法,该公司通过提供图形处理单元来训练包括 ChatGPT、Llama 以及无数其他在内的主要大型语言模型,在 AI 处理器市场中占据了超过 90% 的份额。GPU 的并行处理能力——即其以极快速度同时执行海量计算的能力——使其相较于传统 CPU,成为 AI 工作负载处理的默认选择。
然而,GPU 的未来正面临前所未有的竞争。一类新的技术正在崛起:应用专用集成电路(ASICs)。与通用型 GPU 不同,这些定制处理器是为特定任务和使用场景而设计的。包括 Alphabet、Meta Platforms 在内的超大型云服务商,已开始向 Broadcom 和 Marvell Technology 等公司订购定制 AI 处理器,被其针对特定应用所带来的更出色性能与功耗效率特征所吸引。
市场正在对这种变化作出剧烈反应。Broadcom 的人工智能业务收入预计在本季度翻倍至 82 亿美元。市场研究机构 TrendForce 预测,定制 AI 处理器的出货量在 2026 年可能增长 44%,增速将显著快于 GPU 出货量预计 16% 的增长。这些指标表明,以 GPU 为中心的战略或许无法带来过去三年定义了 AI 基础设施投资回报的收益。
定制芯片解决方案的兴起
推动这场转型的技术优势十分显著。由 Broadcom 等公司制造的定制处理器已经从包括 OpenAI、Meta 和 Google 在内的多家组织获得了规模巨大的合同。它们在针对狭义任务提供更强性能方面的能力,塑造出一种竞争格局,威胁到处理器市场长期以来由单一供应商主导的历史格局。
这一进展也引发了投资者的一个关键问题:如果 ASIC 正在取代传统处理器,那么那些希望获得 AI 基础设施增长敞口的人,是否应当将其作为首要关注对象?令人意外的是,答案是否定的。不断演变的这一格局中,真正的赢家在别处。
隐藏的驱动因素:为何内存才是真正的瓶颈
在每一款强大的处理器背后——无论是 GPU 还是定制 ASIC——都存在一个关键依赖:内存。GPU 和定制芯片的未来都取决于它们能否以规模化方式访问并处理数据。无论是传统处理器还是应用专用处理器,都高度依赖高带宽内存(HBM)技术,以便在数据中心环境中有效运行。
HBM 是内存架构中的一项基础性突破。相比于传统内存芯片,高带宽内存提供更快的数据传输速度、更大的带宽容量、更优的功耗效率,以及显著降低的延迟。对于处理海量数据集的 AI 工作负载而言,这些优势具有变革性——它们消除了那些会严重损害处理器效率的数据瓶颈。
作为全球内存生产领域的领先参与者,美光科技(Micron Technology)已成为这一机会的焦点。该公司估计,HBM 市场将从 2025 年的 350 亿美元扩张到 2028 年的 1000 亿美元——这一轨迹反映出需求的惊人爆发。包括 Nvidia、Broadcom、AMD 和 Intel 在内的行业领军者,已在其各自的处理器设计中集成了大量 HBM。
供需失衡已严重到足以推动服务器内存产品价格的显著上升。这种动态为美光带来了惊人的增长:在 2026 财年第一季度(截至 11 月 27 日),该公司的营收同比飙升 57% 至 136 亿美元。更令人印象深刻的是,非 GAAP 口径的每股收益相较上一年增长了 2.7 倍,达到 4.78 美元/股。
市场验证与前瞻性增长预期
美光的管理层披露,公司已“就我们整个 2026 年历年度的 HBM 供给完成了价格与产量协议”,这表明产能已被完全分配到全年。这意味着预计内存芯片短缺将在 2026 年持续存在,从而在 2026 年乃至可能更久的时间里支撑更高的溢价定价。
行业分析师对这些进展给出了偏乐观的预测。市场一致预期认为,美光今年的收益将大幅增长 288%,达到 32.14 美元/股。再结合公司当前估值——其交易价格低于 10 倍的远期收益——投资者在押注 AI 基础设施扩张持续推进时,风险回报特征看起来颇具吸引力。
更广泛的影响:AI 芯片演进的连带效应
从以 GPU 为中心转向日益多元化的芯片架构演进,体现了 AI 基础设施行业的自然成熟。与其说这是对持续增长的威胁,不如说这反映了市场日益提高的复杂度。企业正从“一刀切”的解决方案转向为特定工作负载与性能特征优化的专业工具。
然而,这种专业化也带来了新的依赖。数据中心中部署的处理器类型越多样,其底层内存基础设施就越关键。每一种处理器变体——无论是由 Nvidia、Broadcom、AMD 或其他公司设计——最终都依赖于访问同一种高性能内存技术。
这种普遍依赖构成了有力的投资论点。尽管 GPU 的未来仍不确定,各类处理器架构也将为市场份额展开竞争,但能够让它们都运行的内存解决方案需求几乎是有保证的。随着基础设施部署在 2026 年及之后加速推进,那些处在这一关键供应链环节的公司将获得可观的价值。
理解这些动态,为评估哪些 AI 基础设施投资值得关注提供了框架,尤其是在科技市场继续快速发生变革的过程中。