详细调试信息 - getPostsByCategory:
当前 cat_name: 即时加国
传入的 cat_slugs: %e5%8d%b3%e6%99%82%e5%8a%a0%e5%9c%8b
当前页码: 1
is_lifetime: false
时间条件: 即时新闻 - 3个月以内
查询结果:
找到文章数: 2759
最大页数: 276
当前返回文章ID数: 10
文章IDs: 7462386, 7462360, 7462328, 7462337, 7462310, 7462285, 7462276, 7462269, 7462263, 7462249
第1页第一篇文章日期: 2026-03-31
第1页最后一篇文章日期: 2026-03-31

【投资专栏-跟枫走043】不要忽略在“芯片制造本身”大舞台一众绿叶角色

【投资专栏-跟枫走043】晶圆制造真正决定产能与先进程度的是曝光、蚀刻、沉积、量测、先进封装等制程与设备,CPU不会像光刻机或CoWoS那样直接卡住产能。但在“AI 能不能交付、资料中心能不能上线”的层面,绿叶之一的CPU 是不可替代的必交零件。

其中原因之一,AI 层面普遍出现“现在必须交付”的必然技术逻辑。

意思是在现实交付层面,一台真正能上线运作的 AI 服务器,并不是只有 GPU。标准结构通常包含两颗服务器级 CPU、四至八颗 AI GPU,搭配大量 DDR5 RDIMM 内存,以及主板、电源、高速网络与储存系统。GPU 负责模型训练与推论算力,但 CPU 承担的,却是整个系统能否“动得起来”的关键角色。

价值不在于算力峰值,而在于资料前处理、GPU 任务排程、内存与储存管理,以及网络通讯、虚拟化与丛集协调等底层工作。这些功能无法被 GPU 取代,只要 AI 服务器出货量持续以年增 20% 以上的速度扩张,CPU 就会被动地、等比例地被消耗掉。这也是为什么,AI 并不是把 CPU 用得更“猛”,而是把 CPU 用得更“多”。

更关键的是,内存短缺进一步放大了 CPU 的结构性卡关。当前 HBM 几乎被 AI GPU 全面锁走,标准 DRAM 产能则快速转向高容量服务器模组,导致 2025 至 2026 年 DDR5 RDIMM 价格出现 50% 至 100% 的上涨。在这种情况下,只要内存不到位,整机就无法出货;若整机无法出货,CPU 并非没有需求,而是交付被迫延后。结果是 CPU 订单在系统厂与 OEM 端排队、积压,交期不断拉长。市场表面上看到的是“CPU 好像没有那么热”,实际发生的却是 CPU 被整机交付节奏卡死。

从供应端来看,Intel (INTC ) 一方面同时推进 Intel 3 与 18A 制程爬坡,另一方面又必须优先满足 AI 与云端高毛利客户,使得一般服务器与消费级产品交期被动拉长。AMD 的 EPYC 9005 持续承接转单,在高核心数与高内存通道的服务器市场快速渗透,但同时也要面对 AI 与传统服务器双重需求,产能同样无法随拉随有。真正的重点不在于市占率,而在于每一台 AI 服务器都一定需要 CPU。

AI PC 的换机潮,则进一步扰乱了供应链节奏。Copilot+ PC 把最低内存规格推到 16GB,主流甚至来到 32GB,使得 CPU 与内存需求同时上升,终端价格也因此压抑了部分消费需求。

第二个重要绿叶角色,就是HBM 。现时是完全缺货的核心瓶颈,包括 HBM 与先进封装(如 CoWoS 与 2.5D),没有这两项,GPU 根本无法出货。另外则是直接锁死整机交付的关键,包括高容量 DDR5 RDIMM 与服务器级 CPU,例如 Xeon 6 与 EPYC 9005,没有 CPU,AI 服务器这个产品本身就不存在。最后则是配套但不可或缺的零组件,包括主板、电源、高速网络与储存,这些虽然不是最稀缺,但缺一样,系统同样无法交付。

例如美光(MU )同时身处 HBM 与 DDR5 RDIMM 的双重短缺核心,价格弹性最大,没有内存,CPU 与 GPU 全部无法交付,等同于整条 AI 基建缺货循环的放大器。Intel 的 Xeon 6 已成为 AI 服务器的标配产品,即使市占率承压,只要 AI 服务器持续扩建,总需求仍然高度吃紧。AMD 则透过 EPYC 9005 在高规格服务器市场提升渗透率,不但承接转单,还与 AI GPU 平台形成绑定效应。

而在 AI 基础建设的讨论中,市场长期把焦点放在 GPU 世代更替之上,从 Blackwell 到 Rubin,算力、HBM 容量与 NVLink 频宽的跃进看似正在把一切推向“纯 GPU 化”。然而,当我们真正拆解 Blackwell NVL72 与 Rubin NVL72 的系统架构,会发现一个被严重低估的事实。

就是GPU 再强,CPU 不但没有退场,反而被锁定在更关键、不可替代的位置。这也是为什么 Nvidia 在 Rubin 世代,并没有减少 CPU 的配置数量,而是选择以 Vera CPU 与 Rubin GPU 并行,延续每个 NVL72 机柜 72 颗 GPU、36 颗 CPU 的设计。

Rubin 架构的一个关键转变,在于它强调“机柜作为单一可信运算域”。无论是机柜层级的安全隔离、身分验证、内存一致性,还是多租户与云端环境下的资源调度,核心控制权仍然掌握在 CPU 平台之中。换言之,GPU 专注于极致算力与资料平行处理,而 CPU 则上移成为整个 AI 系统的中枢神经。这也解释了为何 Rubin 世代不是削弱 CPU,而是淘汰低阶 CPU,只保留具备高内存通道、高 I/O 与平台能力的高阶型号。

从产业影响来看,这种设计确实会让 NVIDIA 自家的 CPU(如 Grace、Vera)在超大规模、全 NVIDIA 锁定的系统中扮演更重要角色,但并不意味着 x86 CPU 需求的消失。相反,在绝大多数非 NVL72 的 AI 服务器、推理丛集与企业私有云环境中,高阶 x86 CPU 仍是标准配置。Intel 的 Xeon 6 与 AMD 的 EPYC 9005,反而因为 GPU 价值提高而被迫升级规格,CPU 的单颗等级与单价持续上移。

更重要的是,Rubin 世代带来的 HBM4 爆量与内存频宽提升,让整个系统对内存管理与资料搬运的要求更高。这不仅放大了 CPU 在平台层的角色,也直接推升了高阶内存与相关供应链的重要性,包括美光在内的内存厂商,成为这条“必须交付”链条中的关键一环。

总结来说,Blackwell 到 Rubin 的演进,并不是一条“GPU 吃掉 CPU”的路线,而是一条“GPU 极致化、CPU 平台化”的路线。CPU 不再是算力补充品,而是 AI 基础建设中负责协调、控制与交付的核心。Rubin 真正改变的不是 CPU 需求的多寡,未来 AI 世界不需要更多低阶 CPU,只需要少量但不可替代的高阶 CPU,来支撑整个机柜与资料中心的运作。

(编按:本文观点不代表加拿大星岛立场,投资市场有赚有蚀,文章仅供读者参考。)


作者:Ricky Lau ,人称“庄主”。资产管理投资策略师、家族办公室顾问、股评人、财经书籍《最佳位置》及《AI选美》作者。

---------------------------------------------

>>>星岛网WhatsApp爆料热线(416)6775679,爆料一经录用,薄酬致意。

>>>立即浏览【移民百答】栏目:新移民抵埗攻略,老华侨也未必知道的事,移民、工作、居住、食玩买、交通、报税、银行、福利、生育、教育。
点击以下6大平台 接收加拿大新闻及生活资讯

延伸阅读

延伸阅读

恒指首季累泻842点 创2022年后最差开局 新地及中海油表现冠蓝筹|港股午市

航管员长期人手不足 加国航空界早已警告将致“彻底灾难”

最新世界大学年度榜单公布 加拿大3所大学名列前茅

83岁卑诗妇到温哥华医院急症室 医生优先“建议”是否考虑安乐死