
先聽聽AI怎麼看
輝達GTC大會揭露Groq 3推論晶片及未來CPU「Rosa」新品規劃
2024年6月,人工智慧晶片巨擘輝達(NVIDIA)執行長黃仁勳於全球GPU科技大會GTC亮相,正式宣布推出整合Groq語言處理單元(LPU)技術的新一代推論晶片「Groq 3 LPU」。同時,他也公布了輝達未來GPU架構「Feynman」,將引入新款CPU「Rosa」與下一代LPU,標誌著輝達AI運算平台的跨元件融合大戰略,為全球AI晶片市場帶來新變革。
Groq 3 LPU正式發布,推論吞吐量大幅提升
本次GTC大會的焦點是Groq 3 LPU推論加速器的卓越效能。Groq 3 LPU晶片採用SRAM記憶體,具備超過150 TB/s的記憶體頻寬,專門優化大規模AI模型的推論工作負載。黃仁勳指出,搭配Vera Rubin NVL72 GPU機架,Groq 3 LPX推論機架能提升支援千億至兆參數規模的GPT模型推論吞吐量達35倍,且功耗效益提升10倍,大幅降低AI服務成本。據透露,此晶片預計2026年下半年開始出貨,但NVIDIA尚未證實製造代工夥伴。

▲ 輝達在GTC大會展示Rubin AI平台,舞台上黃仁勳精彩演說,現場氛圍充滿科技感與專業交流。圖源:Unbias Taiwan
黃仁勳發布「Feynman」架構及下一代CPU「Rosa」
黃仁勳宣布新一代GPU架構命名為「Feynman」,預計於2028年量產。此架構將融合多種異構處理器技術,首次引進代號「Rosa」的全新CPU,並結合下一代LPU(LP40)與高階GPU。Feynman平台將採用台積電1.6奈米製程,運用光學互連技術「Kyber」提升數據傳輸效率,推動代理式AI通用計算。此舉展現輝達由GPU製造商轉型為一站式AI計算平台領導者的策略佈局。
多元晶片策略反映全球AI運算趨勢與競爭
全球半導體產業在美中科技摩擦與供應鏈重組壓力之下,輝達透過整合Groq專利技術結合GPU、CPU及LPU異構架構,在AI推理領域取得重大突破。專家指出,Groq的SRAM架構適合低延遲解碼任務,彌補傳統GPU記憶體頻寬不足,有助提升AI服務即時效能。NVIDIA的競爭對手AMD及Qualcomm正加速推理晶片創新步伐應戰。
供應鏈方面,台灣主要電子製造商如華碩、仁寶、技嘉、英業達、和碩、廣達及緯創,皆為NVIDIA Vera Rubin平台的核心合作夥伴,彰顯台灣業界在全球AI晶片量產及部署上的關鍵角色。

▲ 台灣工程師積極參與AI晶片研發與文件簽署,象徵產業技術力量。圖源:Unbias Taiwan
策略佈局強化產業生態系整合與AI基礎設施
NVIDIA本次發表不僅聚焦硬體晶片,也包括支援代理式AI開發的新軟體生態系,如公開支持「OpenClaw」平台。黃仁勳稱其為「代理式電腦的作業系統」,預期將加速AI代理軟體的普及與開發。未來,輝達將進一步強化軟硬體整合,推動AI從訓練到推論的完整產業鏈升級。
他強調,NVIDIA正迎來AI推論的「轉折點」,Vera Rubin平台的量產與普及,將引發史上最大規模的AI基礎建設熱潮,帶動晶圓代工、封裝測試及伺服器組裝廠產能需求持續增長。
未來展望與產業挑戰
NVIDIA未來發展重點是利用異構運算平台,結合GPU、CPU與LPU,突破物理與設計瓶頸,提升AI運算效率與靈活度。隨著代理式AI應用複雜度增加,硬體需支援低延遲與高吞吐,Groq 3 LPU與Rosa CPU整合成為關鍵里程碑。
產業分析師提醒,NVIDIA必須持續投資製程創新與光互連技術,以因應AMD、高通及自研晶片帶來的激烈市場競爭。台積電作為晶圓代工龍頭,扮演重要角色,協助實現1.6奈米製程目標。
整體而言,輝達新技術發表強化其AI晶片領導地位,促進全球AI產業及供應鏈的數位轉型與升級。

▲ 無塵室內工程師監測AI晶片生產線數據,確保產品品質。圖源:Unbias Taiwan
更多相關訊息,建議可參考輝達2026 GTC發表Rubin AI平台 台灣供應鏈成量產關鍵。





