【投資專欄-跟楓走037】FMS指AI泡沫為尾端風險 ALAB和CFLT類別反而受惠?
【投資專欄-跟楓走037】在最新一期美國銀行《全球基金經理人調查》(FMS)中,市場對 AI 的熱情與擔憂同時升溫。一方面,投資人把「AI 泡沫」視為最大尾端風險。另一方面,在企業資本支出與科技供應鏈結構性增長的背景下,仍有多家公司因具備不可替代的功能而受到高度關注。
其中,Astera Labs(ALAB)與 Confluent(CFLT)便是兩家在 AI 大革命中被視為「必要基建」的企業,並因其獨特定位而成為市場看好的長期標的。
他們都被看好的共同原因,在於AI 的發展不僅是 GPU 競賽,而是一場完整的「資料 + 運算 + 互連」基礎設施升級。FMS 顯示,超過四成基金經理人認為 AI 企業 CAPEX 過熱,而這些資金主要湧向 GPU、資料中心、電網與資料生態系。換句話說,最受益的往往不是最顯眼的明星企業,而是那些負責「支撐整個 AI 產業運作」的核心供應商。ALAB 與 CFLT 正好分別站在 AI 時代的兩條關鍵動脈上。
Astera Labs 在 AI 硬體層扮演的是「高速互連」角色。隨著 NVIDIA Blackwell、GB200 等 GPU 系統的規模迅速擴大,GPU 與 CPU、記憶體、伺服器之間的資料傳遞需求呈現指數級上升。運算越快,資料流動越密集,互連瓶頸就越嚴重。
Astera 的 PCIe/CXL retimer、CXL 記憶體控制器與高速 fabric switch 正是為了解決這些訊號完整性、延遲與擴展性的問題。沒有它們,再強大的 GPU 都無法在大型集群中保持效率。因此,AWS、Microsoft、Google 等雲端巨頭在擴建 AI 伺服器時,都不可避免地需要這些互連元件,使 Astera 成為 AI 硬體生態中的「隱形要角」。
其產品不僅對當前 PCIe Gen5/Gen6 架構關鍵,更直接押注 CXL 記憶體池化(memory pooling)這項未來十年的 AI 伺服器趨勢,前景具備高度結構性成長。
CXL 控制器的功能,就像是一個管理記憶體資源的大腦。它讓 CPU、GPU 與外部記憶體之間能以高速、低延遲的方式互通,使伺服器能同時具備「記憶體擴展、記憶體共享、記憶體池化」三大能力。企業可透過 CXL 將額外的 DDR 記憶體擴展至伺服器外部,甚至讓多台伺服器共享同一池記憶體。這不僅大幅提升大型模型訓練的效率,亦能減少 GPU 閒置時間,使昂貴的 AI 加速器得到更高效的利用。
另一方面,Confluent(CFLT)則站在 AI 的「資料流」層。AI 模型無論訓練或推理,都需要源源不斷、即時更新、乾淨而一致的資料。資料不再是靜態存放在資料庫,而是持續在不同微服務、感測器、使用者行為、金融交易、供應鏈系統之間流動。
Confluent 價值在於它們讓企業能建立即時資料流(Real-time Data Streaming)基礎設施,使所有系統能共享同一條「資料動脈」。如果說 GPU 是 AI 的大腦,Confluent 就是讓資料源源不斷輸送的大血管。AI 越普及、企業越依賴即時決策,CFLT 的地位就越重要。特別是 Confluent Cloud 的高速成長,讓該公司從開源工具成功轉型為高毛利 SaaS,成為資料基礎設施中的必需服務。
未來十年,相信AI 伺服器將更大、更快,資料將更即時、更複雜。Astera Labs 提供的高速互連與記憶體擴展能力,或Confluent 提供的資料流平台,都將成為 AI 生態中最關鍵的底層技術之一。這類公司並不直接與 NVIDIA 等巨頭競爭,而是在 AI 巨浪之下提供支持整個系統的基礎管道。在 FMS 所代表的專業資金眼中,這𥚃公司會被視為能長期受惠於 AI 資本支出與結構性需求上升的核心標的。
(編按:本文觀點不代表加拿大星島立場,投資市場有賺有蝕,文章僅供讀者參考。)
作者:Ricky Lau ,人稱「莊主」。資產管理投資策略師、家族辦公室顧問、股評人、財經書籍《最佳位置》及《AI選美》作者。
>>>星島網WhatsApp爆料熱線(416)6775679,爆料一經錄用,薄酬致意。
>>>立即瀏覽【移民百答】欄目:新移民抵埗攻略,老華僑也未必知道的事,移民、工作、居住、食玩買、交通、報稅、銀行、福利、生育、教育。
