日前,武漢城市人工智能(AI)計算中心建成投用,媒體在報道該中心算力時(shí)稱(chēng):“中心一期建設規模100P FLOPS人工智能算力……其算力相當于5萬(wàn)臺高性能計算機?!痹搱蟮酪怀?,引發(fā)高性能計算領(lǐng)域專(zhuān)家關(guān)注。相關(guān)專(zhuān)家對《中國科學(xué)報》表示,該報道內容對“超級計算機”與“智能計算機”認識不清、概念混淆,極易引發(fā)誤導。
中國科學(xué)院計算技術(shù)研究所研究員、中國計算機學(xué)會(huì )高性能計算專(zhuān)業(yè)委員會(huì )秘書(shū)長(cháng)張云泉告訴《中國科學(xué)報》:“智能計算機不是超級計算機,兩者的概念應該區分清楚,否則可能會(huì )引起行業(yè)混亂?!?nbsp;
超級計算機還是智能計算機
目前業(yè)界用于衡量超級計算的Linpack測試,測試的是超級計算機的“雙精度浮點(diǎn)運算能力”,即64位浮點(diǎn)數字的計算(FP64)。在以二進(jìn)制所表示的數字精度中,還有單精度(32位,FP32)、半精度(16位,FP16)以及整數類(lèi)型(如INT8、INT4)等。數字位數越高,意味著(zhù)人們可以在更大范圍的數值內體現兩個(gè)數值的變化,從而實(shí)現更精確計算。
與許多科學(xué)計算等不同,AI所需的計算力不需要太高精度?!氨热缫恍〢I應用需要處理的對象是語(yǔ)音、圖片或視頻,運行低精度計算甚至整型計算即可完成推理或訓練?!睆堅迫f(shuō),這種專(zhuān)用計算機處理AI算法速度快、能耗低,這是由其特點(diǎn)決定的。
智能計算機是一種專(zhuān)用算力,在推理或訓練等智能計算方面的確表現出色,但由于A(yíng)I推理或訓練一般僅用到單精度甚至半精度計算、整型計算,多數智能計算機并不具備高精度數值計算能力,這也限制其在A(yíng)I計算之外的應用場(chǎng)景使用。
而超級計算機是一種通用算力,其設計目標是提供完備、復雜的計算能力,在高精度計算方面能力更強、應用范圍更廣,比如科學(xué)家常使用超級計算機進(jìn)行行星模擬、新材料開(kāi)發(fā)、分子藥物設計、基因分析等科學(xué)計算和大數據處理。
中國工程院院士陳左寧曾形象地將使用超級計算機做AI計算比喻成“大馬拉小車(chē)”,來(lái)說(shuō)明超級計算雖然“十項全能”,但畢竟不是為AI量身打造。智能計算機由此興起。
此前曾一度熱炒的AI與超算融合,其實(shí)正是將改良的計算機“AI專(zhuān)用化”,嚴格意義上來(lái)說(shuō),它們已經(jīng)不再屬于傳統超算范疇。
“現在不論超級計算中心落成還是智能計算中心,都宣稱(chēng)算力是多少‘FLOPS’,其實(shí)這個(gè)單位是‘每秒浮點(diǎn)運算能力’,而一些智能計算機的單位其實(shí)是‘OPS’——每秒操作次數。如果不加區別地報道,大家很容易誤認為是同一種計算精度、同一種計算能力?!睆堅迫f(shuō),這也導致一些地方以為花了小錢(qián)建了世界頂級的“大超級計算”,好像占了便宜;等項目上了馬,將項目介紹給超算業(yè)內人士時(shí),才恍然大悟。
用新指標引導行業(yè)健康發(fā)展
張云泉告訴記者,除了混淆智能計算機和超級計算機之外,業(yè)內還存在另外一種誤導。
“有些廠(chǎng)商還會(huì )模糊智能計算機的推理性能和訓練性能?!睆堅迫嬖V《中國科學(xué)報》,“與推理相比,訓練性能往往需要計算精度高一些,比如32位甚至64位;而大部分性能‘耀眼’的AI芯片,往往指的是其推理性能,而且可能只是理論值?!?nbsp;
對于A(yíng)I計算而言,訓練性能往往更重要——許多智能模型正是依賴(lài)于此。張云泉說(shuō),訓練模型的計算量與參數量成正比,而且需要反復迭代,直到達到理想的效果。
如果要畫(huà)一張AI所需算力的示意圖,“推理”位于算力矩陣的最下層,因為半精度算力(FP16)或整型算力(如INT8)即可滿(mǎn)足推理需要;排在其上的是“訓練”,一般需要使用單精度算力(FP32)或半精度算力(FP16);對算力需求最高的是類(lèi)腦“模擬”,它需要雙精度算力(FP64)和低精度算力同時(shí)支持。
“混淆傳統超級計算與智能計算、混淆智能計算的訓練性能和推理性能,這兩種情況都可能會(huì )導致用戶(hù)或地方政府錯誤決策——他們本意是建設強大的計算集群,最后卻只建成了一臺只有推理性能的機器?!睆堅迫f(shuō)。
對此,張云泉認為,需要一個(gè)簡(jiǎn)單、有效的指標來(lái)幫助判斷系統的AI算力和整個(gè)高性能AI領(lǐng)域的發(fā)展狀況,從而防止行業(yè)亂象。
2020年11月,張云泉聯(lián)合清華大學(xué)教授陳文光、美國阿貢國家實(shí)驗室研究員Pavan Balaji和瑞士蘇黎世聯(lián)邦理工學(xué)院教授Torsten Hoefler,與ACM SIGHPC China委員會(huì )共同發(fā)起了基于A(yíng)IPerf大規模AI算力基準評測程序的“國際人工智能性能算力500排行榜”。記者注意到,這一榜單的算力單位是OPS。
“超級計算與AI計算,一碼歸一碼,需要一個(gè)新的標尺來(lái)引導AI計算行業(yè)走上健康發(fā)展的道路?!睆堅迫f(shuō)。
國產(chǎn)AI芯片正待奮起直追
算力始于芯片。在A(yíng)I芯片賽道上,我國擁有華為(昇騰)、百度昆侖、燧原等芯片設計企業(yè),但即便如此,國內的智能計算機仍很少能繞過(guò)美國GPU巨頭英偉達。
這是一個(gè)無(wú)奈的現實(shí):國內上馬諸多智能計算中心,英偉達是切切實(shí)實(shí)的受益者。
“專(zhuān)門(mén)做智能計算的AI芯片,只要核數足夠多、主頻足夠高,就可以實(shí)現速度更快、在低精度計算中高出幾個(gè)量級的性能。但如果某個(gè)計算集群既需要高精度計算又需要低精度計算,這對AI芯片的要求就高了?!睆堅迫f(shuō),英偉達的GPU各種精度的計算能力都很突出、比較均衡。這也是大部分國產(chǎn)AI芯片難以與英偉達GPU硬碰硬的原因之一。
不過(guò),國產(chǎn)AI芯片并非完全沒(méi)有機會(huì )。
首先,當下我國的算力基礎設施,都有強烈的國產(chǎn)化意愿。即便英偉達、英特爾等巨頭虎踞龍盤(pán),但基于綜合成本、生態(tài)等各類(lèi)因素,國產(chǎn)化的大潮仍不可阻擋。
其次,就AI當前發(fā)展而言,場(chǎng)景、數據、模型、算力缺一不可,這也就意味著(zhù),中國將是未來(lái)全球AI算力富集地。AI芯片作為核心需要,不可能被一種形態(tài)、一種生態(tài)所壟斷,寒武紀、昇騰等國產(chǎn)AI芯片的佼佼者仍坐擁巨大發(fā)展空間。
專(zhuān)家認為,雖然芯片是算力的主要來(lái)源和最根本的物質(zhì)基礎,但是算力的生產(chǎn)、聚合、調度和釋放是一個(gè)完整過(guò)程,需要復雜系統的軟硬件生態(tài)共同配合,才能實(shí)現“有效算力”。因此,不能只關(guān)注芯片的單一性能指標,更要注重上層軟件應用生態(tài)。
沒(méi)有巨大算力無(wú)法發(fā)展AI?
在算力概念被混淆的背后,是AI計算有如脫韁野馬一般瘋長(cháng)的算力需求。
由多位硅谷“大亨”聯(lián)合建立的人工智能非營(yíng)利組織OpenAI,在2020年5月推出了其新一代無(wú)監督的轉化語(yǔ)言模型GPT-3,目前已有1750億參數,訓練數據量達到45TB(約1萬(wàn)億單詞量)。
GPT-3模型目前已經(jīng)在語(yǔ)義搜索、文本生成、內容理解、機器翻譯等方面取得重大突破。其最大價(jià)值是證實(shí)了機器在無(wú)監督下的自我學(xué)習能力,驗證了純粹通過(guò)擴大規模即可實(shí)現性能提升。
更壯觀(guān)的是,萬(wàn)億參數模型已經(jīng)在路上。6月初,北京智源人工智能研究院發(fā)布了“悟道2.0”,宣稱(chēng)達到1.75萬(wàn)億參數,超過(guò)之前由谷歌發(fā)布的Switch Transformer,成為全球最大的預訓練模型。
迅猛增長(cháng)的參數體量,也意味著(zhù)更高的計算需求——有的可能需要數千塊GPU來(lái)提供必要的算力。張云泉說(shuō),類(lèi)似GPT這樣的巨模型,對算力的需求“不是鬧著(zhù)玩的”。
難道,沒(méi)有巨大算力就無(wú)法發(fā)展AI嗎?
張云泉認為,在目前AI的發(fā)展階段(感知智能和認知智能)中,算力仍然是第一位的。
他的理由是,發(fā)展AI可以通過(guò)算力提升、算法革命等途徑進(jìn)行,但在“資本導向”的現階段,相比不確定性的算法模型突破,算力提升是個(gè)更容易的選擇。
但必須要指出的是,運用巨大算力并不是人工智能發(fā)展的唯一方向,GPT-3這樣的巨模型同樣存在缺陷,如缺乏常識等;而探索人腦奧妙機理,實(shí)現小數據學(xué)習、遷移學(xué)習也是重要手段。
畢竟,大腦的功耗只有20瓦左右,創(chuàng )建低能耗的智能系統或許是更重要的努力方向。
來(lái)源:《中國科學(xué)報》