【投资专栏-跟枫走037】FMS指AI泡沫为尾端风险 ALAB和CFLT类别反而受惠?
【投资专栏-跟枫走037】在最新一期美国银行《全球基金经理人调查》(FMS)中,市场对 AI 的热情与担忧同时升温。一方面,投资人把“AI 泡沫”视为最大尾端风险。另一方面,在企业资本支出与科技供应链结构性增长的背景下,仍有多家公司因具备不可替代的功能而受到高度关注。
其中,Astera Labs(ALAB)与 Confluent(CFLT)便是两家在 AI 大革命中被视为“必要基建”的企业,并因其独特定位而成为市场看好的长期标的。
他们都被看好的共同原因,在于AI 的发展不仅是 GPU 竞赛,而是一场完整的“资料 + 运算 + 互连”基础设施升级。FMS 显示,超过四成基金经理人认为 AI 企业 CAPEX 过热,而这些资金主要涌向 GPU、资料中心、电网与资料生态系。换句话说,最受益的往往不是最显眼的明星企业,而是那些负责“支撑整个 AI 产业运作”的核心供应商。ALAB 与 CFLT 正好分别站在 AI 时代的两条关键动脉上。
Astera Labs 在 AI 硬件层扮演的是“高速互连”角色。随着 NVIDIA Blackwell、GB200 等 GPU 系统的规模迅速扩大,GPU 与 CPU、内存、服务器之间的资料传递需求呈现指数级上升。运算越快,资料流动越密集,互连瓶颈就越严重。
Astera 的 PCIe/CXL retimer、CXL 内存控制器与高速 fabric switch 正是为了解决这些讯号完整性、延迟与扩展性的问题。没有它们,再强大的 GPU 都无法在大型集群中保持效率。因此,AWS、Microsoft、Google 等云端巨头在扩建 AI 服务器时,都不可避免地需要这些互连元件,使 Astera 成为 AI 硬件生态中的“隐形要角”。
其产品不仅对当前 PCIe Gen5/Gen6 架构关键,更直接押注 CXL 内存池化(memory pooling)这项未来十年的 AI 服务器趋势,前景具备高度结构性成长。
CXL 控制器的功能,就像是一个管理内存资源的大脑。它让 CPU、GPU 与外部内存之间能以高速、低延迟的方式互通,使服务器能同时具备“内存扩展、内存共享、内存池化”三大能力。企业可透过 CXL 将额外的 DDR 内存扩展至服务器外部,甚至让多台服务器共享同一池内存。这不仅大幅提升大型模型训练的效率,亦能减少 GPU 闲置时间,使昂贵的 AI 加速器得到更高效的利用。
另一方面,Confluent(CFLT)则站在 AI 的“资料流”层。AI 模型无论训练或推理,都需要源源不断、即时更新、干净而一致的资料。资料不再是静态存放在数据库,而是持续在不同微服务、传感器、使用者行为、金融交易、供应链系统之间流动。
Confluent 价值在于它们让企业能建立即时资料流(Real-time Data Streaming)基础设施,使所有系统能共享同一条“资料动脉”。如果说 GPU 是 AI 的大脑,Confluent 就是让资料源源不断输送的大血管。AI 越普及、企业越依赖即时决策,CFLT 的地位就越重要。特别是 Confluent Cloud 的高速成长,让该公司从开源工具成功转型为高毛利 SaaS,成为资料基础设施中的必需服务。
未来十年,相信AI 服务器将更大、更快,资料将更即时、更复杂。Astera Labs 提供的高速互连与内存扩展能力,或Confluent 提供的资料流平台,都将成为 AI 生态中最关键的底层技术之一。这类公司并不直接与 NVIDIA 等巨头竞争,而是在 AI 巨浪之下提供支持整个系统的基础管道。在 FMS 所代表的专业资金眼中,这𥚃公司会被视为能长期受惠于 AI 资本支出与结构性需求上升的核心标的。
(编按:本文观点不代表加拿大星岛立场,投资市场有赚有蚀,文章仅供读者参考。)
作者:Ricky Lau ,人称“庄主”。资产管理投资策略师、家族办公室顾问、股评人、财经书籍《最佳位置》及《AI选美》作者。
>>>星岛网WhatsApp爆料热线(416)6775679,爆料一经录用,薄酬致意。
>>>立即浏览【移民百答】栏目:新移民抵埗攻略,老华侨也未必知道的事,移民、工作、居住、食玩买、交通、报税、银行、福利、生育、教育。
