详细调试信息 - getPostsByCategory:
当前 cat_name: 即時經濟
传入的 cat_slugs: %e5%8d%b3%e6%99%82%e7%b6%93%e6%bf%9f
当前页码: 1
is_lifetime: false
时间条件: 即時新聞 - 3個月以內
查询结果:
找到文章数: 2019
最大页数: 202
当前返回文章ID数: 10
文章IDs: 7472346, 7472337, 7472281, 7472261, 7472239, 7472164, 7472167, 7472140, 7472111, 7472059
第1页第一篇文章日期: 2026-04-11
第1页最后一篇文章日期: 2026-04-10

英偉達擬發布全新「推理晶片」 棄用昂貴高頻寬記憶體  迎戰Google與Meta夾擊

英國《金融時報》引述消息報道,人工智能巨頭英偉達(美:NVDA,Nvidia)正準備在即將舉行的「GTC 2026」年度開發者大會上,發布一款專為加速AI回應而設計的全新晶片,此舉意味Nvidia將打破長期以來以單一處理器應對多種任務的策略。消息指,這款新晶片將專注於AI「推理」(Inference)階段(即運行而非訓練模型),亦是Nvidia去年12月斥資200億美元(約1,566億港元)收購初創公司Groq核心團隊及技術後,首款亮相的新產品。

首推Groq技術晶片 專攻AI推理市場

報道指,Nvidia計劃推出這款基於Groq技術的語言處理器(LPU),與即將推出的旗艦級Vera Rubin  GPU協同工作,旨在迎擊競爭對手及應對新型的AI應用。

Nvidia目前正面臨初創公司及Google等大客戶自研AI晶片的挑戰;競爭對手Meta日前亦宣布推出新一代專為推理任務而設的四款處理器。有矽谷創投基金投資者直言:「我們正進入一個不再由英偉達獨霸的有趣階段。」

報道指,過去三年,英偉達龐大的市值主要得益於其GPU成為生成式AI產業的支柱,用於訓練如OpenAI的ChatGPT等模型。 

Nvidia行政總裁黃仁勳過往一直主張,單一系統既可用於訓練新AI模型,也可以用於運行基於這些模型建構的聊天機器人和編碼工具。儘管各大型科技巨頭已投入數以千億美元部署這些系統,但同時亦投資研發自家的專用AI晶片。另外,隨AI工具的日益複雜,例如智能體,或迫使黃仁勳放棄「單一處理器應對多種任務」的理念。

棄用昂貴HBM 改用SRAM降成本

據悉,英偉達現有的Blackwell及即將推出的Rubin系統,均高度依賴價格高昂且供應短缺的高頻寬記憶體(HBM)。不過,這款融合Groq技術的新晶片將一改傳統,改用靜態隨機存取記憶體(SRAM),而非HBM所使用的動態隨機存取記憶體(DRAM)。由於SRAM在市場上的供應相對充裕,加上技術特性上更適合用於加速AI的「推理」任務,料可大幅提升運算效率及控制成本。

美銀料2030年推理開支佔比達75%

隨著AI技術日益普及,市場對推理運算的需求正急速增長。美國銀行分析師估計,到2030年,當全球AI數據中心市場規模達到約1.2萬億美元(約9.36萬億港元)時,推理應用的相關開支將佔整體支出的75%,遠高於去年的約50%,反映該領域勢將成為各大科企的兵家必爭之地。

---------------------------------------------

>>>星島網WhatsApp爆料熱線(416)6775679,爆料一經錄用,薄酬致意。

>>>立即瀏覽【移民百答】欄目:新移民抵埗攻略,老華僑也未必知道的事,移民、工作、居住、食玩買、交通、報稅、銀行、福利、生育、教育。
點擊以下6大平台 接收加拿大新聞及生活資訊

延伸閱讀

延伸閱讀

天孚通信遞表申上市 A股市值2790億

Tesla首度獲歐洲批准 荷蘭准許「全自動駕駛監督版」上路

高中阿Sir搞副業賣濕廁紙 年賺近3000萬 與學生分享創業心得 成最強商業教材

【財經消息】加元受就業數據拖累 仍錄本年最大單周升幅