晶片大廠博通 (AVGO.US) 周二 (14 日) 推出新款網路晶片「Thor Ultra」,協助企業打造可串聯數十萬顆運算晶片的人工智慧 (AI) 系統,進一步加深與輝達 (NVDA.US) 在資料中心市場的競爭。
「Thor Ultra」讓運算基礎設施營運商能部署更多晶片,用於訓練與執行如 ChatGPT 等大型 AI 模型。這款晶片將直接對抗輝達的網路介面晶片,並鞏固博通在 AI 資料中心網通架構中的領先地位。
就在推出新品前一天,博通才宣布與 ChatGPT 開發商 OpenAI 達成協議,將自 2026 年下半年起提供總量達 10GW(Gigawatts) 的 AI 客製晶片,挑戰輝達在 AI 加速器領域的主導地位。
博通執行長陳福陽先前指出,公司鎖定的 AI 晶片市場規模預估至 2027 年將達 600 億至 900 億美元,涵蓋網通晶片與資料中心處理器兩大業務。博通 2024 會計年度 AI 相關營收達 122 億美元,並於 9 月揭露另一位尚未具名、規模高達 100 億美元的新客戶。
聚焦網通架構 強化資料中心連結
「Thor Ultra」屬於博通不斷擴張的網路晶片產品線,是 AI 系統與資料中心之間的重要連接元件,幫助營運商快速傳輸與分配龐大資料。
博通網通事業資深副總裁 Ram Velaga 表示:「在分散式運算架構中,網路扮演極為關鍵的角色,因此任何身處 GPU 業務的公司,都會想確保自己參與這一領域。」
雖然網路晶片是博通 AI 版圖的重要支柱,但公司為雲端大廠設計的 AI 處理晶片同樣具高度獲利性。博通多年來參與 Google(GOOGL.US) 自研 Tensor 處理器的設計,該系列晶片自十多年前問世以來,已為博通帶來數十億美元的收益。
加倍頻寬 強化設計與測試能量
博通在聖荷西的網通晶片測試實驗室中,工程團隊負責設計與評估下一代產品。Velaga 指出,「Thor Ultra」相較前一代晶片,頻寬翻倍,並在生產早期階段就經過嚴格測試與驗證。
他說,為打造「Thor Ultra」或旗艦級「Tomahawk」系列交換器晶片,工程師需與硬體系統團隊緊密合作,討論封裝設計、功耗與散熱等技術細節。
雖然博通不直接銷售伺服器,但會向客戶提供測試用參考設計,以協助建構網通基礎設施。Velaga 說:「我們在矽晶設計上每投入 1 美元,生態系夥伴至少會投入 6 至 10 美元。」「因此我們的重點放在設計本身,幾乎就像要直接量產一樣。」
(美股為即時串流報價; OTC市場股票除外,資料延遲最少15分鐘。)新聞來源 (不包括新聞圖片): 鉅亨網