專屬客服號
微信訂閱號
全面提升數(shù)據(jù)價值
賦能業(yè)務(wù)提質(zhì)增效
人工智能的迅速普及,也對現(xiàn)在的硬件建設(shè)提出了新要求,在這樣的市場需求下,現(xiàn)在的企業(yè)也在不斷增加對ASIC芯片的研究。
根據(jù)市調(diào)機(jī)構(gòu)Ovum預(yù)估,2018~2025年,ASIC的市占率將從11%大幅增加至48%。Ovum調(diào)查報告指出,在2016年,云端(包含企業(yè)、數(shù)據(jù)中心等)為深度學(xué)習(xí)晶片的主要營收領(lǐng)域,占了80%。不過,到了2025年,此一比例將會改變,轉(zhuǎn)變成邊緣(Edge)占了80%,而云端的比例則降為20%。這邊所指的邊緣意指終端設(shè)備,且以消費(fèi)性產(chǎn)品為中心(而非小型伺服器或是路由器),包括移動裝置(手機(jī)、平板)、頭戴式顯示器(HMD),如AR/VR /MR、智能音箱、機(jī)器人、無人機(jī)、汽車、安全攝影鏡頭等。各企業(yè)也競相研究ASIC芯片。
ASIC 芯片的大型企業(yè)介紹
2016 年,英偉達(dá)發(fā)布了專門用于加速 AI 計算的 Tesla P100 芯片,并且在 2017 年升級為 Tesla V100。在訓(xùn)練超大型神經(jīng)網(wǎng)絡(luò)模型時,Tesla V100 可以為深度學(xué)習(xí)相關(guān)的模型訓(xùn)練和推斷應(yīng)用提供高達(dá) 125 萬億次每秒的張量計算(張量計算是AI深度學(xué)習(xí)中最經(jīng)常用到的計算)。然而在最高性能模式下,Tesla V100的功耗達(dá)到了300W,雖然性能強(qiáng)勁,但也毫無疑問是顆“核彈”,因為太費(fèi)電了。
英偉達(dá) Tesla V100 芯片
同樣在 2016 年,谷歌發(fā)布了加速深度學(xué)習(xí)的 TPU(Tensor Processing Unit)芯片,并且之后升級為 TPU 2.0 和 TPU 3.0。與英偉達(dá)的芯片不同,谷歌的 TPU 芯片設(shè)置在云端,就像文章在Alpha Go 的例子中說的一樣,并且“只租不賣“,服務(wù)按小時收費(fèi)。不過谷歌 TPU 的性能也十分強(qiáng)大,算力達(dá)到 180 萬億次每秒,并且功耗只有200w。
谷歌 TPU 芯片
關(guān)于各自 AI 芯片的性能,谷歌 CEO Sundar Pichai 和英偉達(dá) CEO 黃仁勛之前還在網(wǎng)上產(chǎn)生過爭論。別看兩位大佬為自家產(chǎn)品撐腰,爭得不可開交,實際上不少網(wǎng)友指出,這兩款產(chǎn)品沒必要“硬做比較”,因為一個是在云端,一個是在終端。
初創(chuàng)企業(yè)的AI芯片研究
除了大公司,初創(chuàng)企業(yè)也在激烈競爭 ASIC 芯片市場。那么初創(chuàng)企業(yè)在行業(yè)中該如何生存呢?創(chuàng)新是初創(chuàng)企業(yè)的核心競爭力。
2017 年,NovuMind 推出了第一款自主設(shè)計的AI芯片:NovuTensor。這款芯片使用原生張量處理器(Native Tensor Processor)作為內(nèi)核構(gòu)架,這種內(nèi)核架構(gòu)由 NovuMind 自主研發(fā),并在短短一年內(nèi)獲得美國專利。除此之外,NovuTensor 芯片采用不同的異構(gòu)計算模式來應(yīng)對不同 AI 應(yīng)用領(lǐng)域的三維張量計算。2018年下半年,Novumind 剛推出了新一代 NovuTensor 芯片,這款芯片在做到 15 萬億次計算每秒的同時,全芯片功耗控制在 15W 左右,效率極高。
縱觀Novumind的發(fā)展,能深刻感受到充滿速度與張力的風(fēng)格。
正是這樣的風(fēng)格,驅(qū)使著Novumind步履穩(wěn)疾:吳韌離開百度三個月就完成了超級計算機(jī)的構(gòu)架;創(chuàng)業(yè)后幾周內(nèi)就完成了公司各個環(huán)節(jié)的從零到一;一杯咖啡的時間說服了世界級芯片專家Chien-Ping Lu加入團(tuán)隊;公司壯大到50余人依然全員匯報單刀直入,保持解決問題的效率。
產(chǎn)品上,為了保證運(yùn)算速度,Novumind干脆不采用支持多平臺軟件的通用芯片,而是由曾負(fù)責(zé)過NVIDIA、MediaTek、Intel等多項芯片設(shè)計的副總裁Chien-Ping Lu帶領(lǐng)技術(shù)團(tuán)隊研發(fā)專屬芯片,以達(dá)到軟硬件結(jié)合的最佳配置;而計算機(jī)視覺和產(chǎn)品構(gòu)架方面,則由前惠普實驗室的首席工程師、曾擔(dān)任HP Sprout產(chǎn)品線技術(shù)負(fù)責(zé)人Kar Han Tan主導(dǎo),以保證產(chǎn)品運(yùn)營速度的實時捕捉,進(jìn)而突破超級計算機(jī)所面臨的帶寬問題和硬件限制。
盡管 NovuTensor 芯片的紙面算力不如英偉達(dá)的芯片,但是其計算延遲和功耗卻低得多,因此適合邊緣端 AI計算,也就是服務(wù)于物聯(lián)網(wǎng)。雖然大家都在追求高算力,但實際上不是所有芯片都需要高算力的。比如用在手機(jī)、智能眼鏡上的芯片,雖然也對算力有一定要求,但更需要的是低能耗,否則你的手機(jī)、智能眼鏡等產(chǎn)品,用幾下就沒電了,也是很麻煩的一件事情。并且據(jù) EE Times 的報道,在運(yùn)行 ResNet-18、ResNet-34、ResNet70、VGG16 等業(yè)界標(biāo)準(zhǔn)神經(jīng)網(wǎng)絡(luò)推理時,NovuTensor 芯片的吞吐量和延遲都要優(yōu)于英偉達(dá)的另一款高端芯片 Xavier。
ASIC芯片需求在不斷提升
現(xiàn)今大多數(shù)的AI處理器,如GPU,多用于云端伺服器、資料中心,以在云端上進(jìn)行AI訓(xùn)練和推論。不過,隨著隱私、安全性需求增加,加上為了降低成本、延遲及打破頻寬限制等因素,分散式AI隨之興起,越來越多AI邊緣應(yīng)用案例出現(xiàn)。例如蘋果的A12仿生芯片,其具備新一代「神經(jīng)網(wǎng)路引擎」,以即時機(jī)器學(xué)習(xí)技術(shù),改變智能手機(jī)的使用體驗。簡而言之,AI從云端轉(zhuǎn)向邊緣是現(xiàn)在進(jìn)行式,當(dāng)然目前AI在邊緣設(shè)備上多還是以推論為主,而非訓(xùn)練。不過隨著AI創(chuàng)新應(yīng)用增加,有越來越對芯片商嘗試提升終端裝置處理器的運(yùn)算效能,為的就是不用再傳送資料至云端進(jìn)行資料運(yùn)算、推理和訓(xùn)練。也因此,各式的處理器紛紛問世,像是CPU、FPGA、GPU、ASIC、NPU或SoC Accelerator等。
其中,ASIC的市占率可望隨著邊緣運(yùn)算的需求增加而明顯攀升,從2018年的11%增加至2025年的52%。ASIC之所以受到青睞,原因在于新興的深度學(xué)習(xí)處理器架構(gòu)多以圖形(Graph)或Tensorflow為基礎(chǔ)架構(gòu);且上述提到AI邊緣運(yùn)算受限于功耗和運(yùn)算效能,因此多以推論為主,而非訓(xùn)練。然而,若假設(shè)到2021年時,終端設(shè)備將導(dǎo)入大量AI芯片,所需要的便是能在同一個芯片上進(jìn)行推理和訓(xùn)練,可因應(yīng)分散式運(yùn)算且又具低功耗的IC,因此ASIC需求將持續(xù)上揚(yáng),實現(xiàn)更多AI邊緣應(yīng)用案例。
現(xiàn)在的云端市場已經(jīng)成為了一些大型公司的戰(zhàn)場,如果想要在終端芯片的競爭中取得突破,還需要在技術(shù)方面尋找關(guān)鍵點(diǎn)。
本文由五度數(shù)科整理,轉(zhuǎn)載請標(biāo)明出處,違者必究!
請完善以下信息,我們的顧問會在1個工作日內(nèi)與您聯(lián)系,為您安排產(chǎn)品定制服務(wù)
評論