專屬客服號
微信訂閱號
全面提升數(shù)據(jù)價值
賦能業(yè)務提質(zhì)增效
芯片架構(gòu)邁向多元化
ChatGPT的出現(xiàn)拓寬了AI芯片的市場空間,AI大模型訓練需求激增,因此高算力芯片成為半導體產(chǎn)業(yè)鏈本輪復蘇的主要驅(qū)動力。在AI浪潮中,英偉達2023年的數(shù)據(jù)中心業(yè)務憑借著A100、H100等GPU(圖形處理器)產(chǎn)品實現(xiàn)了217%的同比增長,截止2024年3月6日,其市值突破2.1億美元。
作為當前進行AI運算的主流處理器,GPU自身具備強大的并行計算能力,但在近幾年的市場驗證中,也暴露出成本較高、交付周期較長以及功耗偏高等問題。一方面,英偉達正在努力縮短交付周期;另一方面,各類企業(yè)正在創(chuàng)新芯片架構(gòu),以期對AI處理器的功耗和成本進行優(yōu)化。
因此,ASIC這類適用于特定場景的芯片開始被谷歌、微軟等云服務廠商關(guān)注。
谷歌自2016年開始研發(fā)專用于機器學習的TPU(張量處理器),并將其作為AlphaGo的算力底座。TPU采用低精度計算,在保證深度學習效果的同時降低功耗,并提升運算效率。谷歌于今年1月發(fā)布的TPU v5p版本在大模型訓練中的效率相較于v4提升了2.8倍。據(jù)悉,該系列芯片也將應用于谷歌Gemini AI大模型的訓練。
2月19日,由前谷歌TPU核心研發(fā)團隊的工程師組建的初創(chuàng)公司Groq也開放了自家產(chǎn)品LPU(語言處理器)的體驗入口。在架構(gòu)方面,Groq的LPU使用了TSP(張量流處理器)來加速人工智能、機器學習和高性能計算中的復雜工作負載。Groq相關(guān)發(fā)言人稱,該處理器的推理能力是英偉達H100的10倍。
此外,在AI從云端向終端滲透的過程中,諸多廠商認為NPU(神經(jīng)網(wǎng)絡(luò)處理單元)是更加適合AI運算的技術(shù)路線。高通的AI PC芯片X Elite和英特爾酷睿Ultra處理器中均集成了NPU以提升電腦端的AI性能。
高通AI引擎集成了CPU、GPU、NPU等多種處理器(圖片來源:高通)
架構(gòu)的多點開花既體現(xiàn)出各大企業(yè)對于通用芯片和專用芯片的取舍,也意味著更多芯片品類的供應商及其上下游企業(yè)有機會分享AI時代的紅利。
“在過去幾年,GPU由于其完善的開發(fā)生態(tài)仍然是AI計算的主要選擇。然而,隨著模型參數(shù)不斷增大,芯片對于計算能效的要求相應提升,專用處理器在某些特定AI應用場景中的優(yōu)勢將會十分明顯。綜合考慮應用場景、成本等多方面因素,未來AI計算的硬件芯片選擇將是多技術(shù)路線并存的?!北本┐髮W集成電路學院研究員賈天宇告訴《中國電子報》記者。
AI性能帶動先進封裝
在上游芯片設(shè)計企業(yè)迎來AI帶來“潑天的富貴”的同時,下游的封裝技術(shù)也獲得了增量空間。
“生成式AI模型需要數(shù)百萬或數(shù)億級別參數(shù)才能進行推理,對芯片的處理速度、容量、帶寬都提出了更高的要求,這將推動以Chiplet(芯粒)為代表的先進封裝技術(shù)進一步發(fā)展,帶來封裝行業(yè)的生態(tài)變化?!敝须娍齐娮友b備集團有限公司董事長景璀告訴《中國電子報》記者。
芯片的算力與晶體管數(shù)量呈正相關(guān)。由于摩爾定律的放緩,芯片的面積已經(jīng)縮小到接近物理極限,即便臺積電、英特爾IFS、三星電子等制造廠商紛紛公布3nm及更先進制程,也面臨著提升成品良率的挑戰(zhàn)。因此,先進封裝技術(shù)以及SIP(系統(tǒng)級封裝)等新的封裝方式將會是延續(xù)摩爾定律的有效途徑。
英特爾IFS“四年五個制程節(jié)點”路線圖(圖片來源:英特爾)
其中,Chiplet技術(shù)可謂“掌上明珠”。
一方面,Chiplet頗受芯片設(shè)計企業(yè)青睞。憑借高靈活性,Chiplet既實現(xiàn)了對不同架構(gòu)、不同工藝材料的堆疊,也省去了前道的復雜制造工藝,對設(shè)計企業(yè)而言更具性價比。有機構(gòu)統(tǒng)計,有將近30%的高性能CPU和GPU采用了Chiplet設(shè)計,包括英偉達、AMD等算力芯片供應商。
另一方面,Chiplet的火熱也推動了制造和封測企業(yè)在技術(shù)上的不斷創(chuàng)新。英特爾聯(lián)合多個公司確立了UCIe(通用芯?;ミB通道)標準,用于芯片內(nèi)部的計算區(qū)塊通信,并推出EMIB和Foveros等封裝技術(shù),以便將芯粒無縫集成至封裝中。
臺積電此前與賽靈思合作開發(fā)CoWoS封裝技術(shù)。基于Chiplet,CoWoS通過互聯(lián)硅中介層互聯(lián)實現(xiàn)多芯片封裝、高密度互連并降低功耗。隨著GPU站上AI風口,臺積電CoWoS產(chǎn)能也迅速告急。在臺積電1月18日舉辦的財報會議上,總裁魏哲家表示AI芯片對先進封裝的需求十分強勁,目前產(chǎn)能仍無法應對客戶強勁需求,供不應求的狀況可能延續(xù)到2025年。
存儲原廠比拼產(chǎn)能與封裝技術(shù)
算力是訓練大模型的重要支撐,而存儲性能則與大模型的推理效率緊密相關(guān)。在大模型云集、AI應用逐漸落地的背景下,推理能力被越來越多的芯片和云服務廠商強調(diào)。因此,在GPU產(chǎn)品中會配置多塊HBM(高帶寬存儲)以削弱芯片在AI計算中的內(nèi)存墻效應,進一步降低延遲。
HBM在2024年的競爭將會更加激烈。
美光CEO Sanjay Mehrotra在2023年底的財報會議上透露,AI芯片對HBM的需求旺盛,美光2024年的HBM產(chǎn)能預計已全部售罄——于2024年初量產(chǎn)的HBM3E有望為美光創(chuàng)造數(shù)億美元的營收。
無獨有偶,2月,SK海力士副總裁金基泰發(fā)文表示,雖然2024年才剛開始,但今年SK海力士旗下的HBM已經(jīng)全部售罄。同時,公司為了保持HBM的市場領(lǐng)先地位,已開始為2025年做準備。三星電子緊隨其后,在2月27日正式推出12層堆疊HBM3E,比前代產(chǎn)品的帶寬提升50%,預計將于下半年投入量產(chǎn)。
三星電子的HBM3E 12H(圖片來源:三星電子)
普遍來講,存儲芯片的堆疊層數(shù)越高,其性能越強,但發(fā)熱和良率等問題也越明顯。因此,與算力芯片類似,先進封裝及其相關(guān)技術(shù)也成為了存儲芯片提升性能的重要手段。
除了HBM中常見的封裝技術(shù)TSV(硅通孔)之外,三星電子努力消除堆疊層之間NCF(非導電薄膜)材料的厚度。據(jù)悉,三星電子12層堆疊的HBM3E采用了熱壓非導電薄膜技術(shù),將芯片間隙壓縮至最小7微米,使得12層與此前8層堆疊產(chǎn)品的高度保持一致。
SK海力士自研了MR-MUF(批量回流模制底部填充)技術(shù),區(qū)別于在每層芯片上鋪薄膜材料,該技術(shù)在通過在堆疊的芯片之間注入保護材料,以提升工藝效率和散熱性。SK海力士副社長孫皓榮表示:“為了實現(xiàn)不同的人工智能應用,人工智能存儲器的特性也應該多元化。我們的目標是以各種先進封裝技術(shù)來應對這些變化。”
材料和架構(gòu)創(chuàng)新助力低功耗
AI芯片除了通過調(diào)整架構(gòu)和先進封裝技術(shù)提升算力和存力,還需考慮功耗因素。
一方面,在數(shù)據(jù)中心里,AI服務器的功耗逐漸增加將催生新的解決方案。據(jù)了解,英偉達H100的功耗達到了700W,而之后將推出的B100功耗還會再增加40%,這驅(qū)使現(xiàn)有的制冷技術(shù)進一步優(yōu)化。英偉達CEO黃仁勛此前透露公司的下一代產(chǎn)品將會采用液冷方案,戴爾公司首席運營官JeffClarke也表示“工程團隊為(英偉達)這款新產(chǎn)品做好了準備,為GPU帶來高功耗所需的散熱解決方案”。
由于發(fā)展AI需要大量算力支撐,這也使得對電力的需求飆升,此時寬禁帶半導體和儲能也將發(fā)揮作用?!按笮陀嬎慊A(chǔ)設(shè)施的運行需要更高功率、更高能效的電力電子設(shè)備去支撐,這對碳化硅、氮化鎵等寬禁帶半導體市場將是一個新的增長點?!鄙钲诨景雽w有限公司總經(jīng)理和巍巍告訴《中國電子報》記者,“另外,未來AI技術(shù)的發(fā)展將高度依賴于能源,特別是光伏和儲能技術(shù)的進步,這也與半導體行業(yè)息息相關(guān)。”
另一方面,AI正在經(jīng)歷從云到端的滲透,端側(cè)更加重視低功耗的需求。存內(nèi)計算將有可能成為在邊緣側(cè)進行AI計算的全新范式。
“相較于云端的大算力GPU,終端智能計算芯片在保障性能的同時更追求低功耗、低成本。存算一體類的新技術(shù)具有低功耗的優(yōu)勢,未來有望在廣泛的邊緣智能計算中發(fā)揮作用?!辟Z天宇表示。
當前存內(nèi)計算已經(jīng)應用于視覺、健康等智能移動終端設(shè)備中,未來也有望在邊緣側(cè)、自動駕駛乃至數(shù)據(jù)中心得到應用。有機構(gòu)報告顯示,2023年存內(nèi)計算的市場規(guī)模有近177億美元,2030年將達到526億美元,年復合增長率16.8%。
存內(nèi)計算市場規(guī)模預測(圖片來源:SNS Insider)
對于存內(nèi)計算而言,市場前景與技術(shù)挑戰(zhàn)并存。知存科技創(chuàng)始人兼CEO王紹迪向《中國電子報》記者表示:“以手機端跑AI大模型為例,現(xiàn)在手機中16GB的LPDDR5已經(jīng)超過70美金,70GB/s的帶寬(對比云端服務器帶寬近1TB/s)在短時間內(nèi)也不易提升,同時帶寬的擴大必然會引發(fā)功耗升高。存內(nèi)計算相比傳統(tǒng)架構(gòu)AI芯片在成本、容量、帶寬和功耗各項能效上都具有很大優(yōu)勢,雖然短時間內(nèi)滿足邊緣側(cè)的模型算力需求并且達到很好的應用效果仍有很大挑戰(zhàn),但這是一件非常值得去做的事。”
作者:王信豪 來源:中國電子報、電子信息產(chǎn)業(yè)網(wǎng)
本文為本網(wǎng)轉(zhuǎn)載,出于傳遞更多信息之目的,并不意味著贊同其觀點或證實其內(nèi)容的真實性,如涉及侵權(quán),請權(quán)利人與本站聯(lián)系,本站經(jīng)核實后予以修改或刪除。
請完善以下信息,我們的顧問會在1個工作日內(nèi)與您聯(lián)系,為您安排產(chǎn)品定制服務
評論