人工智能:機遇挑戰和安全風(fēng)險并存
在科技發(fā)展史上,技術(shù)的進(jìn)步和變革都會(huì )帶來(lái)“雙刃劍”效應。從人工智能概念的提出,到人工智能應用的落地,已經(jīng)影響到社會(huì )發(fā)展的諸多方面,而人工智能技術(shù)本身的安全問(wèn)題和與此相關(guān)的安全威脅,同樣不容忽視。在各國出臺國家戰略、政策法規、制度措施等助力人工智能發(fā)展的同時(shí),人工智能的安全、風(fēng)險、法律與倫理等問(wèn)題,值得關(guān)注。
新一代人工智能(AI)作為一項具有顛覆性的技術(shù),正成為影響未來(lái)社會(huì )最重要的技術(shù)領(lǐng)域,世界各國紛紛出臺AI國家戰略,助力AI的創(chuàng )新與發(fā)展。然而,在A(yíng)I的發(fā)展進(jìn)程中,安全與風(fēng)險問(wèn)題也隨之上升到前所未有的高度。AI的風(fēng)險與威脅,不僅會(huì )導致法律、倫理等方面的風(fēng)險,同時(shí),會(huì )引發(fā)社會(huì )、經(jīng)濟、軍事等重大領(lǐng)域的風(fēng)險與安全。
2017年7月,國務(wù)院發(fā)布的《新一代人工智能發(fā)展規劃》明確要求,在大力發(fā)展人工智能的同時(shí),必須高度重視可能帶來(lái)的安全風(fēng)險挑戰,加強前瞻預防與約束引導,最大限度降低風(fēng)險,確保人工智能安全、可靠、可控發(fā)展。2018年10月,習近平總書(shū)記在主持中共中央政治局第九次集體學(xué)習時(shí)強調,要加強人工智能發(fā)展的潛在風(fēng)險研判和防范,維護人民利益和國家安全,確保人工智能安全、可靠、可控。要整合多學(xué)科力量,加強人工智能相關(guān)法律、倫理、社會(huì )問(wèn)題研究,建立健全保障人工智能健康發(fā)展的法律法規、制度體系、倫理道德。
一、關(guān)注AI致命性自主武器對人類(lèi)的威脅
2017年11月,七十多個(gè)國家的代表出席了在日內瓦舉行的聯(lián)合國《特定常規武器公約》(CCW)大會(huì )。在大會(huì )上,伯克利大學(xué)教授、資深AI研究者斯圖爾特·羅素(Stuart Russell)公布了一段十分恐怖的視頻,一群形似“殺人蜂”的小型機器人,沖進(jìn)課堂,通過(guò)人臉識別和精準定位瞬間殺死了一群正在上課的學(xué)生。視頻中的這種形體類(lèi)似殺人蜂的機器人,其內置了各種傳感器、廣角攝像頭、支持面部識別,同時(shí)裝載3克炸藥。此外,它還具有反狙擊(anti-sniper)技術(shù),完全基于A(yíng)I,可輕易躲避人的抓捕。通過(guò)面部識別技術(shù),該機器人可快速鎖定獵殺目標,對準額頭一擊致命,這個(gè)視頻讓所有參會(huì )代表心驚膽戰。
從人類(lèi)誕生起,一共經(jīng)歷了兩次武器革命:第一次以火藥為代表,包括槍械和炮彈;第二次以核武器為代表,包括裂變原子彈和聚變氫彈等。每次武器革命,都給人類(lèi)帶來(lái)了數不盡的災難。然而,隨著(zhù)新一代AI的發(fā)展,“致命性自主武器”(lethal autonomous weapons,LAWS)技術(shù)越來(lái)越成熟。LAWS實(shí)際上是一種軍用智能機器人,這種機器人與人臉識別、無(wú)人機、精準定位等技術(shù)的結合,可以不經(jīng)過(guò)人類(lèi)干預,自主選擇和攻擊包括人員和裝備在內的軍事目標。AI技術(shù)不是武器,但是,能夠成為武器性能提升的助推器,AI+無(wú)人機、AI+無(wú)人地面車(chē)輛、AI+無(wú)人潛航設備已經(jīng)廣泛應用于軍事領(lǐng)域,機器人作戰系統也正在研究和部署。
2018年7月,在瑞典斯德哥爾摩舉辦的國際人工智能聯(lián)合會(huì )議上,包括SpaceX及特斯拉CEO埃隆·馬斯克(Elon Musk)、谷歌DeepMind的三位創(chuàng )始人在內的超過(guò)2000名AI學(xué)者共同簽署《禁止致命性自主武器宣言》(Lethal Autonomous Weapons Pledge),宣誓不參與LAWS系統的開(kāi)發(fā)、研制工作。筆者有幸參與簽署了這份宣言。這也是學(xué)界針對“殺人機器人”最大規模的一次集體發(fā)聲。
《禁止致命性自主武器宣言》呼吁,人的生命絕不能交給機器處置。我們的呼吁充滿(mǎn)了道德與倫理價(jià)值取向,如果讓機器人控制人的生死,那將是對社會(huì )、對人類(lèi)最大的負罪,因此,人類(lèi)在任何時(shí)候都不能被機器所掌控。LAWS在沒(méi)有人為干預的情況下會(huì )自動(dòng)以人為目標進(jìn)行攻擊,并致人死亡,這將給每個(gè)國家帶來(lái)恐慌,給人類(lèi)帶來(lái)傷害。
當前,共有28個(gè)聯(lián)合國成員國明確,公開(kāi)支持禁止殺傷性自主武器系統的呼吁。在此,筆者呼吁:應當在聯(lián)合國層面,由各主權國家討論“致命性自主武器”給全球性帶來(lái)的風(fēng)險與安全問(wèn)題,并簽署《聯(lián)合國禁止致命性自主武器公約》。
二、數據與算法安全是AI安全的核心
新一代AI的三大基石,即算法、數據和計算能力,其中,數據是新一代AI發(fā)展的基礎,計算能力將數據進(jìn)行計算,算法則是針對不同行業(yè)建立的對應的模型,滿(mǎn)足這三者,才能實(shí)現從數據到價(jià)值的輸出。當前,加速積累的技術(shù)能力與海量的數據資源,巨大的應用需求,以及開(kāi)放的市場(chǎng)環(huán)境有機結合,形成了我國人工智能發(fā)展的獨特優(yōu)勢。
事實(shí)上,我國人工智能的發(fā)展,不缺少數據,而缺少智能數據的支撐,因此,應當強化對數據驅動(dòng)與知識引導相結合的AI新方法的研究,特別是加強以自然語(yǔ)言理解和圖像圖形為核心的認知計算理論和方法、綜合深度推理與創(chuàng )意AI理論與方法、非完全信息下智能決策基礎理論與框架,以及數據驅動(dòng)的通用AI數學(xué)模型與理論等基礎領(lǐng)域的研究,在此基礎上應當統籌利用大數據基礎設施,強化AI領(lǐng)域的智能數據安全與個(gè)人隱私保護。
新一代AI的本質(zhì)是建立在大數據基礎上的自我學(xué)習、判斷和決策的算法,AI系統需要大量的數據訓練學(xué)習算法,因此,數據被稱(chēng)為AI時(shí)代的“新石油”。算法的核心是基于網(wǎng)絡(luò )的編程技術(shù),但是,這種編程技術(shù)絕非中立。目前,AI的算法決策具有典型的“黑箱”特點(diǎn),大量的違背科研道德和倫理算法給新一代AI的發(fā)展蒙上了一層陰影。國務(wù)院總理、國家科技領(lǐng)導小組組長(cháng)李克強在主持國家科技領(lǐng)導小組第一次全體會(huì )議時(shí)強調,要加強科研誠信建設,避免浮躁,嚴肅查處違背科研道德和倫理的不端行為。
在“技術(shù)中性”的背后,一些推送者利用智能推介算法為用戶(hù)推介信息,這種行為不但違反了自愿和知情原則,而且,也加速不良信息的傳播,特別是一些不法分子利用人工智能技術(shù)制作和傳播虛假信息,實(shí)施詐騙等違法犯罪活動(dòng)。
筆者認為,網(wǎng)絡(luò )運營(yíng)商基于一定算法,向用戶(hù)定向推送有關(guān)信息、商品或服務(wù)的,應當取得用戶(hù)的同意,并就其算法進(jìn)行公開(kāi)說(shuō)明,不得以所謂的商業(yè)秘密為由拒絕對其算法的公開(kāi)說(shuō)明。同時(shí),國家應該在相關(guān)立法中明確規定,網(wǎng)絡(luò )運營(yíng)者向用戶(hù)定向推送有關(guān)信息、商品或服務(wù)的,應當取得用戶(hù)的同意,并就其算法進(jìn)行公開(kāi)說(shuō)明,對其算法給公民和社會(huì )造成危害的,應當承擔相應的法律責任。
2019年5月28日,國家網(wǎng)信辦發(fā)布的《數據安全管理辦法(征求意見(jiàn)稿)》明確規定,網(wǎng)絡(luò )運營(yíng)者利用用戶(hù)數據和算法推送新聞信息、商業(yè)廣告等,應當以明顯方式標明“定推”字樣,為用戶(hù)提供停止接收定向推送信息的功能;用戶(hù)選擇停止接收定向推送信息時(shí),應當停止推送,并刪除已經(jīng)收集的設備識別碼等用戶(hù)數據和個(gè)人信息。
三、高度重視AI倫理風(fēng)險帶來(lái)的安全隱患
人工智能的倫理問(wèn)題往往會(huì )直接轉化為具體的法律挑戰,或是引發(fā)復雜的連帶法律問(wèn)題,而且,每個(gè)倫理問(wèn)題一般都涉及相關(guān)法律問(wèn)題。對此,筆者呼吁,國家應當高度重視人工智能和自主系統(AI/AS)帶來(lái)的許多復雜的倫理和法律問(wèn)題。2016年,標準制定組織國際電氣與電子工程師學(xué)會(huì )(IEEE)發(fā)布了一份題為《利用人工智能和自主系統最大化人類(lèi)福祉的愿景》(The Vision of Maximizing Human Well-being by Using Artificial Intelligence and Autonomous Systems)的報告。該報告提出發(fā)展人工智能的一般性原則,主要涉及AI可靠性以及高層次的倫理問(wèn)題。報告認為,人工智能發(fā)展的一般性原則將適用于所有類(lèi)型的人工智能和自主系統。在確定一般原則時(shí),主要考慮三大因素:一是體現人權;二是優(yōu)先考慮最大化對人類(lèi)和自然環(huán)境的好處;三是削弱人工智能的風(fēng)險和負面影響。
原則之一:人類(lèi)利益原則。人類(lèi)利益原則要求,考慮如何確保人工智能和自主系統不侵犯人權。為了實(shí)現人工智能和自主系統尊重人權、自由、人類(lèi)尊嚴及文化多樣性,在使用年限內是安全、可靠的,一旦造成損害必須能夠找出根本原因(可追溯性)等目的,應當構建治理框架,包括標準化機構和監管機構,增進(jìn)公眾對人工智能和自主系統的信任。
原則之二:責任原則。責任原則涉及如何確保人工智能和自主系統是可以被問(wèn)責的。為了解決過(guò)錯問(wèn)題,避免公眾困惑,人工智能系統必須在程序層面具有可責性,證明其為什么以特定方式運作。首先,立法機構/法院應當闡明人工智能系統開(kāi)發(fā)和部署過(guò)程中的職責、過(guò)錯、責任、可追責性等問(wèn)題,以便于制造商和使用者可以知曉其權利和義務(wù)分別是什么;其次,人工智能設計者和開(kāi)發(fā)者在必要時(shí)考慮使用群體的文化規范的多樣性;再次,當人工智能及其影響游離于既有規范之外時(shí),利益相關(guān)方應當一起制定新的規范;第四,自主系統的生產(chǎn)商/使用者應當創(chuàng )建記錄系統,記錄核心參數。
原則之三:透明性原則。透明性原則意味著(zhù),自主系統的運作必須是透明的,人們能夠發(fā)現其如何以及為何作出特定決定。人工智能的不透明性,加上人工智能開(kāi)發(fā)的去中心化模式,加重了責任確定和責任分配的難度。透明性對每個(gè)利益相關(guān)方都意義重大:首先,對于使用者,透明性可以增進(jìn)信任,讓其知道人工智能系統可以做什么及其這樣做的原因;其次,對人工智能和自主系統批準和認證機構,透明性能確保人工智能系統可以接受審查;再次,如果發(fā)生事故,透明性有助于事故調查人員查明事故原因;第四,事故發(fā)生之后,參與審判的法官、陪審團、律師、專(zhuān)家證人需要借助透明性提交證據作出決定;第五,對于自動(dòng)駕駛汽車(chē)等顛覆性技術(shù),一定程度的透明性有助于增強公眾對技術(shù)的信心。
原則之四:教育和意識原則。教育和意識原則涉及如何擴大人工智能和自主系統技術(shù)的好處,最小化其被濫用的風(fēng)險。在人工智能和自主系統越來(lái)越普及的時(shí)代,需要推進(jìn)倫理教育和安全意識教育,讓人們警惕人工智能和自主系統被濫用的潛在風(fēng)險。2017年,國務(wù)院印發(fā)的《新一代人工智能發(fā)展規劃的通知》對人工智能倫理和法律框架的建立和時(shí)間表提出了具體的要求?!锻ㄖ诽岢?,要加強人工智能相關(guān)法律、倫理和社會(huì )問(wèn)題研究,建立保障人工智能健康發(fā)展的法律法規和倫理道德框架;開(kāi)展與人工智能應用相關(guān)的民事與刑事責任確認、隱私和產(chǎn)權保護、信息安全利用等法律問(wèn)題研究,建立追溯和問(wèn)責制度,明確人工智能法律主體以及相關(guān)權利、義務(wù)和責任等?!锻ㄖ芬?,到2030年,建成更加完善的人工智能法律法規、倫理規范和政策體系。
四、構建全過(guò)程的AI監管體系
我國應當建立健全公開(kāi)透明的AI監管體系,重點(diǎn)在A(yíng)I的設計問(wèn)責和應用監督并重的雙層監管結構上做充分的準備,實(shí)現對AI算法設計、產(chǎn)品開(kāi)發(fā)和成果應用等的全過(guò)程監管。促進(jìn)AI行業(yè)和企業(yè)自律,切實(shí)加強AI協(xié)同一體化的管理體系,加大對AI領(lǐng)域數據濫用、算法陷阱、侵犯個(gè)人隱私、違背道德倫理等行為的懲戒力度。
在A(yíng)I技術(shù)研發(fā)的同時(shí),要加強人工智能相關(guān)法律、倫理和社會(huì )問(wèn)題的同步研究,尤其要關(guān)注AI模仿人類(lèi)傳播錯誤信息或將商業(yè)無(wú)人機轉化為目標武器攻擊人類(lèi),建立和優(yōu)化保障AI健康發(fā)展的法律法規和倫理道德框架。法律研究領(lǐng)域要開(kāi)展與AI應用相關(guān)的民事與刑事責任確認、隱私和產(chǎn)權保護、機器倫理與破壞力評價(jià)等倫理與法律問(wèn)題的交叉研究,建立AI的可追溯和問(wèn)責制度,明確人工智能的設計者、控制者、使用者等相關(guān)法律主體的權利、義務(wù)和責任。
關(guān)于A(yíng)I監管的原則,科幻作家艾薩夫·阿西莫夫(Isaac Asimov)于1942年提出的“機器人學(xué)三律”仍具有參照價(jià)值,值得借鑒。第一定律:機器人不得傷害人類(lèi)個(gè)體,或者目睹人類(lèi)個(gè)體將遭受危險而袖手不管;第二定律:機器人必須服從人給予它的命令,當該命令與第一定律沖突時(shí)例外;第三定律:機器人在不違反第一、第二定律的情況下要盡可能保護自己的生存。
筆者始終認為,AI的本質(zhì)是服務(wù)人類(lèi)社會(huì )(AI as a service,AIaas),而人類(lèi)社會(huì )的核心價(jià)值就是“以人為本”。由此,AI健康發(fā)展的方向必須以造福于人類(lèi)為宗旨。筆者建議,國家有關(guān)部門(mén)或行業(yè)組織應當制定AI產(chǎn)品研發(fā)設計人員的道德規范和行為守則,加強對AI潛在危害與收益的評估,構建AI復雜場(chǎng)景下突發(fā)事件的解決方案。同時(shí),我國應當積極參與AI的全球治理,加強機器人異化和安全監管等AI重大國際共性問(wèn)題的研究,深化在A(yíng)I國際標準、國際規則等方面的合作,構建我國AI領(lǐng)域的國際制度性話(huà)語(yǔ)權。
來(lái)源:戰略前沿技術(shù)