人工智能在不斷發(fā)展的同時(shí),其背后算力的消耗也十分驚人。有統計顯示,谷歌公司研發(fā)的伯特預訓練語(yǔ)言模型,擁有3.4億個(gè)數據參數,而訓練它一次所需的電力足夠一個(gè)美國家庭使用50天。
承載了人類(lèi)未來(lái)大夢(mèng)想、大可能和巨大挑戰的人工智能, 火了這么些年,取得了長(cháng)足的發(fā)展,與之相輔相成的,是人工智能日益“龐大”的架構體系,諸如常以十億計的計算單位,龐大的云計算數據中心……越來(lái)越“大”是人工智能的現實(shí)與未來(lái)嗎?
近日《麻省理工科技評論》公布年度十大突破性技術(shù)排行榜,微型人工智能技術(shù)(Tiny AI)位列其中。從大到小,難道是人工智能正在“返璞歸真”的途中?
不可持續的“大”人工智能
我們都知道,隨著(zhù)研究人員不斷給算法“喂養”大量數據,機器學(xué)習變得越來(lái)越聰明,但它們是否也變得更環(huán)保呢?答案是否定的。
不可否認,人工智能在過(guò)去幾年中取得了許多突破。深度學(xué)習是許多人工智能系統實(shí)現高精度的突破之一。研究人員發(fā)現,雖然人工智能每一天都在變得更加精確,但同時(shí)也帶來(lái)了隱藏的環(huán)境代價(jià)。
“當前人工智能攜帶著(zhù)龐大的數據集被輸入到云數據中心,然后由無(wú)窮無(wú)盡的算法進(jìn)行分析?!蓖1毖箅姎饧瘓F股份有限公司副總工程師秦志亮表示,數據上傳到云中心的過(guò)程,以及通過(guò)復雜的算法結構和精巧的訓練方式獲得高精度的算法模型,不僅會(huì )產(chǎn)生驚人的碳排放量,而且限制了算法模型的運行與部署速度,同時(shí)帶來(lái)很多隱私問(wèn)題。
美國馬薩諸塞大學(xué)阿默斯特分校研究人員的一項研究結論對秦志亮的說(shuō)法提供了佐證。他們通過(guò)揭示算法訓練的能量強度發(fā)現,訓練一種算法產(chǎn)生的二氧化碳排放量相當于一輛普通汽車(chē)終生二氧化碳排放量的5倍,或者相當于飛機在紐約和舊金山之間大約300次的往返飛行。研究人員認為,在尋求人工智能高準確性的過(guò)程中,人們似乎失去了對能源效率的關(guān)注。
事實(shí)上,“大”人工智能也不適合離線(xiàn)和實(shí)時(shí)決策,比如自動(dòng)駕駛解決方案,且日益依賴(lài)于巨大的能量、巨大的帶寬,這種模式在經(jīng)濟和生態(tài)上同樣具有不可持續性。
另外,更讓研究人員擔心的是,這一趨勢還可能加速人工智能研究集中到少數科技巨頭手中,在學(xué)術(shù)界或資源較少的國家,資源不足的實(shí)驗室根本沒(méi)有辦法使用或開(kāi)發(fā)計算成本昂貴的模型。
去中心化或是未來(lái)趨勢
人工智能雖已融入大眾生活,但最終的成功還要取決于“落地”,實(shí)現大規模商用,這應該是推動(dòng)微型人工智能發(fā)展的直接原因。
“為了實(shí)現人類(lèi)對人工智能遠大的夢(mèng)想,我們必須從小處著(zhù)想,甚至很小。云數據主導的趨勢正在轉變,未來(lái)的人工智能環(huán)境將是去中心化的?!焙D掀者m智能科技有限公司CEO陳嘯翔說(shuō)。
海南中智信信息技術(shù)有限公司總經(jīng)理于建港認為,“這是一條與計算機發(fā)展相反的路徑,計算機的發(fā)展經(jīng)歷了從個(gè)人終端,然后到互聯(lián)網(wǎng)化、虛擬化的過(guò)程。而微型人工智能是先互聯(lián)網(wǎng)化、虛擬化,再終端化?!?nbsp;
以伯特(Bert)為例。伯特是谷歌公司高級研發(fā)科學(xué)家雅各布·德夫林(Jacob Devlin)和他的團隊開(kāi)發(fā)的預訓練語(yǔ)言模型(PLM),它可以理解單詞和上下文,可以為寫(xiě)作提出建議或獨立完成的句子?!堵槭±砉た萍荚u論》報道中稱(chēng),伯特擁有3.4億個(gè)數據參數。此外,訓練它一次所需的電力足夠一個(gè)美國家庭使用50天。
華為研究人員則發(fā)表文章稱(chēng),他們制作了微型伯特(Tiny Bert)模型,尺寸比伯特縮小7.5倍,速度還快了近10倍。來(lái)自谷歌的研究人員也發(fā)表文章說(shuō),他們已經(jīng)造出了一個(gè)比伯特小了60多倍的版本,但其語(yǔ)言理解能力略差于華為的版本。
華為和谷歌他們是如何做到的?其實(shí),這兩家公司都使用了一種常見(jiàn)的壓縮技術(shù)的變體,這種技術(shù)被稱(chēng)為“知識提取”,可以讓想要縮小的大型人工智能模型去訓練其圖像中的小得多的模型,類(lèi)似于老師訓練學(xué)生。
我們可以這樣理解,微型人工智能應是人工智能研究界為縮小算法規模所做的努力。這不僅是減少模型的大小,而且還加快推理速度,保持了高水平的準確性。此外,還可以在邊緣部署小得多的算法,無(wú)需將數據發(fā)送到云,而是在設備上進(jìn)行決策。
三個(gè)方面縮小現有模型
微小數據、微小硬件、新型材料、微小算法,微型人工智能是一種綜合方法,涉及數據、硬件和算法的共同開(kāi)發(fā)。
如何在不明顯影響模型準確度的前提下,縮小現有的深度學(xué)習模型,秦志亮認為,可以從三個(gè)方面著(zhù)手。一是硬件方面的邊緣端計算,二是算法方面的模型簡(jiǎn)化,三是數據方面的小樣本訓練。
無(wú)論是新技術(shù)還是新理念,大眾的關(guān)注點(diǎn)還是其在市場(chǎng)上的普及率,特別是產(chǎn)品量產(chǎn)與應用。
“微型人工智能具體落地場(chǎng)景包括語(yǔ)音助手、數字化妝等,涉及到即時(shí)場(chǎng)景理解,邊緣端目標檢測等技術(shù);此外,微型人工智能也將使新的應用成為可能,比如基于移動(dòng)端的醫學(xué)影像分析,或對反應時(shí)間要求更快的自動(dòng)駕駛模型的開(kāi)發(fā)?!鼻刂玖琳f(shuō)。
“現在微型算法一般在幾百兆到幾個(gè)G,完全可以裝在到手機上?!庇诮ǜ壅f(shuō),微型人工智能可以應用在所有需要前端控制的應用上,即使5G已加速覆蓋了,網(wǎng)絡(luò )時(shí)延降低,但是像工控、自動(dòng)駕駛、航天等需要快速反應的應用,都需要本地部署人工智能算法。他認為,將來(lái)的業(yè)務(wù)形態(tài)應該是終端做出簡(jiǎn)單快速的反饋,服務(wù)器做出重大決策。
在2019年年底的安博會(huì )上,已有人工智能初創(chuàng )企業(yè)推出“Tiny AI”,該公司將低功耗、小體積的NPU與MCU整合,適配市場(chǎng)上各種主流的2D/3D傳感器,滿(mǎn)足2D/3D圖像、語(yǔ)音等識別需求的AI解決方案受到了業(yè)界的關(guān)注。此外,英偉達(NVIDIA)和華為等公司,也都陸續推出了終端型圖形處理器,體型較小、功耗較低、功能可以滿(mǎn)足簡(jiǎn)單的算法。
技術(shù)初期期待寬松發(fā)展環(huán)境
微型人工智能尚處于初期發(fā)展階段,該領(lǐng)域的安全、倫理、隱私等問(wèn)題也同樣引起人們的關(guān)注。
秦志亮擔心的問(wèn)題有兩個(gè)。一是算法歧視可能激增。他說(shuō),算法歧視之所以難以解決,歸根結底在于算法的可解釋性與訓練數據的不均衡,相比于傳統的云端訓練,微型人工智能的訓練數據集樣本較少,數據的分布可能更加偏頗。另一個(gè)隱患是數據偽造的影響。GAN(Generative Adversarial Network)和深度偽造技術(shù)為代表的視頻與圖像技術(shù)一直是人工智能算法研究的熱點(diǎn)。隨著(zhù)這些技術(shù)的普及,未來(lái)的用戶(hù)端極有可能接收或產(chǎn)生大量的虛擬偽造數據。微型人工智能受限于計算力的制約,在分散式網(wǎng)絡(luò )架構中,如何有效地甄別這些偽造數據,這很可能是一個(gè)隱患。
于建港則認為,微型人工智能會(huì )導致分布式人工智能的興起,每個(gè)終端都成為一個(gè)AI節點(diǎn),各自都能獨立存活,出現類(lèi)似區塊鏈的應用。網(wǎng)絡(luò )側的控制力度將降低,政府的管控風(fēng)險加大。不過(guò),技術(shù)都是兩面性的,于建港分析,雖然有這些風(fēng)險,但是對人工智能的管控技術(shù)也在發(fā)展,應該相信微型人工智能的正面作用,不應該在技術(shù)初期就限定太多條條框框。
來(lái)源:《科技日報》