在生成式AI技術席捲全球的背景下,AI運算需求正以驚人速度成長,全球主要雲端服務供應商(CSP)紛紛啟動新一輪自研ASIC(特定應用積體電路)佈局,成為推動下一波AI基礎建設升級的重要力量。本文章聚焦於台灣ODM Direct伺服器廠商,如廣達、緯穎、英業達——如何受惠於這股趨勢,進一步推升其AI伺服器出貨與業績表現。
文章指出,隨著Google、AWS、Meta、微軟等大型CSP加碼自研AI加速器晶片,並導入到自家雲端平台服務中,相關伺服器需求隨之激增,對應的ODM合作夥伴也直接受益。例如Google推出的TPU(Tensor Processing Unit)已有多代產品,目前持續透過廣達與英業達等台廠進行量產與交付,而下一代TPU預計於今年下半年及明年中問世,可望進一步帶動出貨動能。
AWS(Amazon Web Services)方面,本文章指出,其近年來在自研ASIC發展上急起直追,尤其自Trainium系列AI加速晶片推出以來,大幅強化了與台廠緯穎的合作,並讓AWS成為緯穎業務中第三大客戶。未來隨著Trainium 2架構的AI伺服器預計下半年放量、以及第四季即將登場的Trainium 3,緯穎可望延續強勁的出貨表現。
而在其他CSP動向方面,Meta目前也與廣達、緯穎合作進行自研ASIC專案,微軟的Maia則由英業達主導。雖然這些項目目前出貨規模尚不及Google與AWS,但仍展現出台廠在全球AI運算設備供應鏈中的關鍵地位與成長潛力。
根據DIGITIMES研究調查數據,此篇文章預估,自研ASIC出貨量經歷2023、2024年高速成長後,2025年雖增速略為收斂,仍將達年成長23%、總出貨量約496.2萬顆的高水準。其中高效能、低功耗與成本優勢,將使自研ASIC持續成為CSP建構AI基礎設施的重要支柱。
除了需求面之外,本文章亦點出多項推動ASIC需求的關鍵外部因素,例如生成式AI模型訓練成本日益上升、小型語言模型(SLM)興起、輝達GPU價格飆升,以及美國對中國企業施加AI晶片出口限制等,都促使更多企業尋求自製晶片的替代方案,並投入自研ASIC研發。
最後文章亦提到市場格局正在改變。過往自研ASIC市場以Google一枝獨秀,但如今已陸續見到華為、特斯拉等新玩家積極加入戰局,未來全球AI晶片供應生態勢必更加多元,也讓台灣的ODM業者持續面對技術合作、產能擴充與全球競合的新挑戰與新機會。
總結來說,這波自研ASIC熱潮,不僅帶動全球AI伺服器需求走強,也讓台灣伺服器ODM廠商站上了AI運算技術革新的前線。對於關心AI基礎設施、生產鏈轉變與產業趨勢的讀者而言,此篇文章提供了技術脈絡、產業數據與各大企業戰略方向的完整輪廓,是理解未來AI硬體發展趨勢的重要參考素材。