報導記者/鄭勝得、張珈睿
綜合報導
四大CSP(雲端服務供應商)自研晶片火力全開,路透引述消息報導,臉書母公司Meta正在測試首款自行研發的AI訓練晶片,顯示該公司持續朝著設計更多自研晶片的目標邁進,未來將逐步降低對於AI晶片龍頭輝達(NVIDIA)等外部供應商的依賴。
業者指出,Meta這款MTIA v2自研晶片將採台積電5奈米加上CoWoS技術,設計及IP由博通提供,主板及系統組裝均由Celestica(天弘科技)供應,預計於明年上半年量產,供應鏈包括台積電、廣達、奇鋐及晟銘電可望受惠。Meta與台積電皆婉拒評論此事。
全球四大CSP(雲端服務供應商)AWS、微軟、Google及Meta 2025年計畫投入人工智慧(AI)技術投資高達3,200億美元(約新台幣9.85兆元)、年增40%,自研AI晶片(Trainium、Maia、TPU及MTIA)為重頭戲,2025~2026年將是關鍵期。
四大CSP業者自研晶片部署期技術節點從7奈米進展到3奈米,對先進製程和封裝技術(如CoWoS、SoIC)的需求續增。
據了解,Meta已開始小規模部署該晶片,若測試順利的話,將擴大生產規模並廣泛應用。
這是Meta研發自家晶片計畫的一部分,旨在降低龐大的AI基礎設施成本。該公司先前預測,2025年總支出將達到1,140億~1,190億美元(約新台幣3.75兆~3.92兆元),其中高達650億美元(約新台幣2.13兆元)的資本支出將用於AI基建。
知情人士表示,這款訓練晶片是一款專用加速器,專門用於處理AI特定任務。與一般用於AI工作負載的整合式GPU相比,它的能源效率更高。
Meta完成該晶片設計定案(tape-out)後開始測試部署。整個過程的成本通常高達數千萬美元,時間約需三~六個月,且無法保證測試成功。若測試失敗,Meta必須找出問題並重新設計定案。
該晶片是Meta訓練與推論加速器(MTIA)系列最新產品。此計畫起步並不順利,甚至曾在類似研發階段放棄一款晶片。
Meta去年開始使用MTIA晶片執行推論,也就是利用AI系統決定臉書與Instagram平台動態消息的推薦內容。