當前主流的人工智能,經(jīng)由深度學(xué)習技術(shù)所提供的強大運算力,會(huì )在某個(gè)不太遙遠的時(shí)刻逼近通用人工智能的目標。
通用人工智能技術(shù)可以通過(guò)當前的技術(shù)路線(xiàn)達成,然而,該目標的實(shí)現會(huì )對人類(lèi)社會(huì )構成莫大的威脅。
未來(lái)人工智能的主要技術(shù)路徑,是大數據技術(shù)、5G環(huán)境中的物聯(lián)網(wǎng)技術(shù)。
這三條目前在人工智能領(lǐng)域的主流意見(jiàn),被復旦大學(xué)哲學(xué)學(xué)院教授徐英瑾在剛剛出版的《人工智能哲學(xué)十五講》中,評價(jià)為“犯了哲學(xué)層面上的錯誤”“錯得離譜”?!安恍业氖?,全球范圍內關(guān)于人工智能的技術(shù)與資本布局,都多多少少受到了上述三種觀(guān)點(diǎn),尤其是最后一種觀(guān)點(diǎn)的影響。對此,我感到非常憂(yōu)慮?!?/p>
作為國內少有的研究人工智能哲學(xué)的年輕學(xué)者,徐英瑾在本書(shū)中系統性地對主流人工智能技術(shù)進(jìn)行了批判性討論,并另辟蹊徑,為“我們將如何做出更好的人工智能”這一問(wèn)題提供了截然不同的方案,簡(jiǎn)直就是當下人工智能發(fā)展的一個(gè)“反叛者”。
“我們要有一種容錯心理,要允許不同的學(xué)科流派,按照不同的哲學(xué)假設、不同的邏輯來(lái)工作,誰(shuí)做的東西好,讓市場(chǎng)來(lái)檢驗?!毙煊㈣恢痹诤苷J真地走“旁門(mén)左道”,但他告訴《中國科學(xué)報》,目前人工智能發(fā)展所碰到的主要困難,不是科學(xué),而是“傳播學(xué)”。因為反主流的觀(guān)點(diǎn)很難獲得話(huà)語(yǔ)權,也因其顛覆性的特質(zhì),而難以被深刻理解。
“科技發(fā)展有時(shí)會(huì )陷入路徑依賴(lài),埋頭奔跑,卻忽略了欲速則不達。哲學(xué)家出于思辨的習慣,總是走三步退五步?!毙煊㈣硎?,目前社會(huì )上被熱炒的人工智能概念需要一番冷靜的“祛魅”操作,可哲學(xué)批判精神并沒(méi)有發(fā)揮重要作用,使得一些研究規劃沒(méi)有在“概念論證”的階段受到足夠認真的檢視,而這種缺憾,又與人文學(xué)科在整個(gè)科研預算分配游戲中的邊緣化地位密切相關(guān)。
《中國科學(xué)報》:為什么人工智能研究需要哲學(xué)?人工智能哲學(xué)究竟要討論什么?
徐英瑾:人工智能和所有的學(xué)科都不太一樣,它是一個(gè)連基本范式都尚未確定的學(xué)科。按照人工智能專(zhuān)家李飛飛女士的話(huà)說(shuō),類(lèi)比物理學(xué)的發(fā)展軌跡,人工智能目前還處于前伽利略時(shí)代。
這是因為,在人工智能學(xué)界,關(guān)于何為智能的基本定義都還沒(méi)有定見(jiàn),由此導致的技術(shù)路線(xiàn)分歧更是不一而足。牽涉到“什么是智能”這個(gè)大問(wèn)題的追問(wèn),需要高度抽象的能力。澄清基本概念、思考大問(wèn)題,是哲學(xué)家的本分。
除了什么是智能,哲學(xué)家還需要討論諸如這些問(wèn)題:人工智能未來(lái)發(fā)展的大方向該怎么走;深度學(xué)習會(huì )不會(huì )演變成通用人工智能技術(shù);如果不能變成通用人工智能技術(shù),通用人工智能技術(shù)的道路該怎么走;是否要走類(lèi)腦的技術(shù)路線(xiàn);現有的技術(shù)路線(xiàn)是否具有一定的方法論上的錯誤;能否在方法論層面進(jìn)行糾偏,等等。
但是,現在的人工智能哲學(xué)研究是存在偏倚的,它凸顯了自身形而上學(xué)的“面相”,而本該有的工程學(xué)“面相”卻被壓抑了。也就是說(shuō),人工智能哲學(xué)應該是聚焦于對人工智能自身的技術(shù)前提的追問(wèn)。問(wèn)題是,并不是所有哲學(xué)家都具有與現實(shí)世界交接的能力,擺脫了對于人工智能技術(shù)實(shí)踐的體會(huì ),空談形而上學(xué)的內容,非常像“葉公好龍”。
《中國科學(xué)報》:深度學(xué)習能讓人工智能更“智能”嗎?
徐英瑾:我認為,深度學(xué)習并非人工智能研究的康莊大道。
深度學(xué)習機制的根底,是對于人類(lèi)專(zhuān)家某方面的數據歸類(lèi)能力的膚淺模仿。這類(lèi)機制正是在這種模仿的基礎上,才能在某類(lèi)輸入信息與某類(lèi)目標信息之間建立起特定種類(lèi)的映射關(guān)系。而之所以說(shuō)這類(lèi)技術(shù)對于人類(lèi)能力的模仿是“膚淺”的,首先是因為深度學(xué)習機制的運作完全是以大量人類(lèi)專(zhuān)家提供大量?jì)?yōu)質(zhì)的樣板數據為邏輯前提的。這就存在算法偏見(jiàn)的風(fēng)險,而且在人類(lèi)專(zhuān)家無(wú)法提供大量樣板數據的地方,深度學(xué)習也很難有用武之地。
其次,這種模仿不以深入理解人腦對于信息的內部加工過(guò)程為自身的理論前提,所以天生就帶有“知其然而不知其所以然”之弊。人工智能系統所做的事情,就是在各種可能的輸入與輸出之間的映射關(guān)系中隨便選一種進(jìn)行“胡猜”,然后將結果拋給人類(lèi)預先給定的“理想解”,看看自己瞎蒙的答案是不是恰好蒙中了。這種低效學(xué)習的辦法是非常笨拙的,之所以在計算機那里能夠得到容忍,只是因為計算機可以在很短的物理時(shí)間內進(jìn)行海量次數的“胡猜”,并由此選出一個(gè)比較正確的解,而人類(lèi)在相同時(shí)間能夠完成的猜測數量則是非常有限的。
此外,一個(gè)深度學(xué)習系統一般是以特定任務(wù)為指向的,無(wú)法同時(shí)勝任另一個(gè)領(lǐng)域的工作,因為它的一個(gè)特點(diǎn)就是對于底層變化的干擾性極度敏感,遷移能力非常受限,而一個(gè)智力正常的人常常能在一個(gè)不熟悉的領(lǐng)域舉一反三,變通適應。
從深度學(xué)習機制的本質(zhì)特征出發(fā),我們甚至能看到它的大規模運用對于人類(lèi)文明可能造成的潛在威脅。從哲學(xué)角度看,深度學(xué)習機制其實(shí)是濃縮了一個(gè)領(lǐng)域內的人類(lèi)智慧的平均意見(jiàn),并以大量個(gè)體化的人類(lèi)常識判斷的存在為其自身存在的邏輯前提。如果我們把這些進(jìn)行判斷的人類(lèi)個(gè)體以及其所依賴(lài)的人文背景都視為廣義的“人文資源”的一部分,那么,深度學(xué)習技術(shù)就可以被視為寄生在人文資源上的“技術(shù)寄生蟲(chóng)”——它會(huì )慢慢揮霍人文資源的紅利,而本身卻不產(chǎn)生新的歷史發(fā)展可能性。
《中國科學(xué)報》:為什么您認為人工智能不必依賴(lài)大數據?
徐英瑾:大數據技術(shù)試圖通過(guò)回避高級認知架構與思維路徑設計的方式,直接利用“信息高速公路”上涌現的數據,由此完成原本的人工智能程序所試圖完成的某些任務(wù)。但是,人們常常忽略,海量數據的計算是極其消耗能量的一件事,而且海量數據本身也不是人類(lèi)社會(huì )的真正常態(tài)。人類(lèi)的自然智能對應的是“小數據”,人們常常是在信息稀缺的環(huán)境下去作出合理選擇的,這時(shí)人類(lèi)智能動(dòng)用的是一種“節儉性算法”。
假設有這樣一張考卷,上面有一列由美國城市名字所構成的對子,比如“斯普林菲爾德—舊金山”“芝加哥—小石城”,等等。學(xué)生的任務(wù),是從每個(gè)對子里找出那個(gè)城市居民比較多的城市?,F在我們把考卷分為兩組:德國學(xué)生的答卷與美國學(xué)生的答卷。你猜哪一組的平均分會(huì )更高一點(diǎn)?
很多人都會(huì )認為美國的學(xué)生考分更高,因為在不少人看來(lái),美國學(xué)生總要比德國學(xué)生掌握更多美國城市的信息。但其實(shí)這個(gè)看法是偏頗的。作為一個(gè)大國,美國的行政區劃以及相關(guān)的人口情況異常復雜,即使是一般的美國人,也僅僅是“聽(tīng)說(shuō)過(guò)”不少城市的名字而已,而不太清楚所有城市的人口規模。對德國學(xué)生來(lái)說(shuō),思考反而更簡(jiǎn)單。他們做題的時(shí)候遵循的是一條非常簡(jiǎn)單的“捷思法”:凡是自己聽(tīng)說(shuō)過(guò)的美國城市,一般就都是大城市,而大城市一般人口就多??傊?,面對兩個(gè)城市的名字“二選一”時(shí),選那個(gè)看起來(lái)眼熟的地名就是了。試驗證明,這種看似“簡(jiǎn)單粗暴”的解題思路,成功率相當了得。
這才是人類(lèi)智能所展現的快速、高效的推理優(yōu)勢。節儉性算法的設計是根植于對人類(lèi)現有心理機制的研究的,而不是對于直接的數據環(huán)境的研究的產(chǎn)物。
然而,深度學(xué)習是人工智能的主流,主流的深度學(xué)習是依賴(lài)于大數據的,大數據的處理方法中也往往會(huì )調用深度學(xué)習的一些方法,這成了一種路徑依賴(lài)。它背后的商業(yè)邏輯是,利用互聯(lián)網(wǎng)用戶(hù)所產(chǎn)生的龐大的數據紅利。
如果我們的目標是讓人工智能逼近人類(lèi)智能的話(huà),就必須另辟蹊徑。麻煩的是,現代科技發(fā)展和牛頓時(shí)代本質(zhì)上已然不同,牛頓時(shí)代把追求真理作為第一目標,如今的人工智能捆綁了更多商業(yè)訴求,很多方向性的探索從一開(kāi)始就可能被扼殺了。
《中國科學(xué)報》:您認為的未來(lái)人工智能的發(fā)展方向是什么?
徐英瑾:符合大眾對于人工智能未來(lái)期待的一定是通用人工智能,它的意思是,能像人類(lèi)那樣利用有限資源有效、經(jīng)濟地完成各種任務(wù)的人工智能系統。對此,我提出了一種帶有小數據主義色彩的綠色人工智能的概念。
這種人工智能系統的特點(diǎn)是,第一,這種人工智能并非是大數據技術(shù)或者深度學(xué)習技術(shù)的變種,而是能夠根據少量的數據作出決策與推理。它的行為方式類(lèi)似于人類(lèi),人類(lèi)也能夠在信息相對少的情況下作出決策,盡管決策的質(zhì)量未必高。但是這樣的決策活動(dòng)卻能夠在環(huán)境提出急需人類(lèi)應答挑戰的時(shí)候,使得人類(lèi)具有起碼的環(huán)境適應性;第二,在人類(lèi)那里,這樣的決策活動(dòng)很難擺脫情緒的影響,而是知、情、意協(xié)同運作的產(chǎn)物。與之對應,基于小數據的人工智能也必須包含人工情緒與人工意圖的模塊,并在這種意義上具有通用人工智能的特點(diǎn);第三,正是因為基于小數據的新型人工智能具有人類(lèi)思維的一些特點(diǎn),所以它也像人類(lèi)思維一樣,未必一定要通過(guò)接駁到“云”的方式進(jìn)行決策。本地化的信息處理在原則上也能滿(mǎn)足當下的任務(wù)要求。這就使得此類(lèi)人工智能具有一定的用戶(hù)隱私保護特性。換言之,這樣的人工智能在雙重意義上將是“綠色”的:一方面對于小數據的容忍能夠帶來(lái)能耗的降低;另一方面對于本地化信息處理能力的支持能夠帶來(lái)對于隱私的保護。
《中國科學(xué)報》:越智能的機器越危險嗎?
徐英瑾:如果我們把創(chuàng )造性作為體現智能的重要標志,那么它本身就意味著(zhù)不可預期性。我們必須在“設計非常愚蠢的,卻不可能背叛我們的人工智能”與“設計非常機智的,卻可能會(huì )在某些情況下背叛我們的人工智能”之間進(jìn)行選擇,而不存在第三條路。因為“聰明”本身就意味著(zhù)“具備對于背叛主人的邏輯可能性的預估力”。
《中國科學(xué)報》:人工智能需要怎樣的倫理規范?
徐英瑾:人工智能倫理學(xué)依然是一門(mén)非常不成熟的學(xué)科分支。實(shí)際上,目前在世界范圍內,推動(dòng)“人工智能倫理學(xué)”研究的并不是學(xué)院內部的力量,而主要是各國官方與企業(yè)的力量,他們背后的動(dòng)機并不是立足于學(xué)科發(fā)展的內部邏輯的。比如,有軍方背景的人工智能倫理學(xué)家主要關(guān)心的是“能夠自動(dòng)開(kāi)火的機器人”應當遵循的倫理規范問(wèn)題,而歐洲議會(huì )在2016年發(fā)布的一份建議性文件甚至討論了將歐盟范圍內普遍承認的民權準則賦予機器人的問(wèn)題。
我認為,這兩項問(wèn)題的提出都已經(jīng)超越了目前人工智能的實(shí)際發(fā)展水平。因為在認知語(yǔ)義學(xué)的相關(guān)學(xué)術(shù)洞見(jiàn)還沒(méi)有被人工智能的編程作業(yè)所消化的情形下,現有的人工智能系統的語(yǔ)義表征能力實(shí)際上不足以編碼任何人類(lèi)意義上的道德規范。更有甚者,在夸大當前人工智能發(fā)展水平的前提下,散布“人工智能威脅論”并在公眾之中制造了一些不必要的恐慌。我認為,這種“憂(yōu)患意識”好比是在一個(gè)核裂變的物理學(xué)方程式還未被搞清楚的時(shí)代就去擔心核戰的危險,只是現代版的“杞人憂(yōu)天”罷了。
事實(shí)上,倫理編程問(wèn)題不僅牽涉到軟件的編制,還牽涉到“怎樣的外圍設備才被允許與中央語(yǔ)義系統進(jìn)行恒久的接駁”這一問(wèn)題。也就是說(shuō),機器倫理學(xué)的核心關(guān)涉不僅包括“心智”還有人工智能“身體”的設計規范。事實(shí)上,太聰明的人工智能并不會(huì )對人類(lèi)構成威脅,而太聰明的人工智能與超強的外圍硬件設備的恒久組合,才會(huì )對人類(lèi)構成威脅。因為,與人類(lèi)迥異的身體圖式本身就會(huì )塑造出一個(gè)與人類(lèi)不同的語(yǔ)義網(wǎng)絡(luò ),從而使得人類(lèi)的傳統道德規范很難附著(zhù)其上。
舉例來(lái)說(shuō),研究軍用機器人的相關(guān)倫理專(zhuān)家所執著(zhù)的核心問(wèn)題是,是否要賦予軍用機器人以自主開(kāi)火權。我認為,只要投入戰爭的機器人具有全面的語(yǔ)義智能,主要體現在,它能夠理解從友軍作戰平臺上傳送來(lái)的所有指令和情報的語(yǔ)義,能夠將從傳感器得到的底層數據轉化為語(yǔ)義信息,并具有在混雜情報環(huán)境中靈活決策的能力等,那么在原則上,我們就可以憑借它們的這種語(yǔ)義智能對其進(jìn)行“道德教化”,并期待它們像真正的人類(lèi)戰士那樣知道應當在何種情況下開(kāi)火。因此,我們在軍事倫理的語(yǔ)境中更需要解決的問(wèn)題其實(shí)是,我們是否允許將特定的武器與機器人戰士的身體直接、恒久地接駁,因為這種直接接駁肯定會(huì )改變機器人戰士的身體圖式,從而使得人類(lèi)對于它們的“教化”變得困難。
所以,人工智能倫理學(xué)的研究方向應該“由軟轉硬”,從對于軟件編制規范的探討,轉向研究“怎樣的外圍硬件才允許與人工智能的中央處理器進(jìn)行接駁”這一嶄新的問(wèn)題。
來(lái)源:《中國科學(xué)報》