• <blockquote id="fficu"><optgroup id="fficu"></optgroup></blockquote>

    <table id="fficu"></table>

    <sup id="fficu"></sup>
    <output id="fficu"></output>
    1. 20240703
      關(guān)注中國自動(dòng)化產(chǎn)業(yè)發(fā)展的先行者!
      工業(yè)智能邊緣計算2024年會(huì )
      2024
      2024中國自動(dòng)化產(chǎn)業(yè)年會(huì )
      2023年工業(yè)安全大會(huì )
      OICT公益講堂
      當前位置:首頁(yè) >> 資訊 >> 行業(yè)資訊

      資訊頻道

      人工智能時(shí)代的國家安全:風(fēng)險與治理
      • 點(diǎn)擊數:7203     發(fā)布時(shí)間:2018-11-10 21:47:00
      • 分享到:
      人工智能正在成為影響未來(lái)社會(huì )最重要的技術(shù)領(lǐng)域,世界各國紛紛出臺指導戰略,助力人工智能的創(chuàng )新與發(fā)展。然而,人工智能作為一項具有顛覆性的技術(shù),其發(fā)展過(guò)程本身也蘊含著(zhù)很大的風(fēng)險與威脅。人工智能技術(shù)發(fā)展不僅會(huì )導致法律、倫理等方面的問(wèn)題,也會(huì )引發(fā)國家安全領(lǐng)域的風(fēng)險與威脅。
      關(guān)鍵詞:

      人工智能正在成為影響未來(lái)社會(huì )最重要的技術(shù)領(lǐng)域,世界各國紛紛出臺指導戰略,助力人工智能的創(chuàng )新與發(fā)展。然而,人工智能作為一項具有顛覆性的技術(shù),其發(fā)展過(guò)程本身也蘊含著(zhù)很大的風(fēng)險與威脅。人工智能技術(shù)發(fā)展不僅會(huì )導致法律、倫理等方面的問(wèn)題,也會(huì )引發(fā)國家安全領(lǐng)域的風(fēng)險與威脅。本文根據人工智能技術(shù)和應用的發(fā)展趨勢,分析國家在不同領(lǐng)域所面對的安全風(fēng)險,不僅有助于做好安全防范準備,也有助于處理好安全與發(fā)展之間的關(guān)系。加強對風(fēng)險的有效應對,可以更好地保障人工智能技術(shù)的發(fā)展。在此基礎上,國家可以從提升風(fēng)險意識、完善治理體系、加強監管能力和探求國際合作等多方面來(lái)構建風(fēng)險分析和應對框架,提升國家安全的韌性。

      人工智能時(shí)代的來(lái)臨

      現代意義上的人工智能研究最早可以追溯到 20 世紀 40 年代。1950 年,英國著(zhù)名科學(xué)家圖靈在《計算機器與智能》一文中首次提出了“機器能夠思考嗎 ?”這一具有劃時(shí)代意義的理論問(wèn)題,并同時(shí)提出了測試機器是否擁有智能的方法。

      1956 年,在達特茅斯夏季學(xué)術(shù)研討會(huì )上,研究者們接受了計算機專(zhuān)家約翰?麥卡錫提出的人工智能 (AI) 概念,并將其作為這門(mén)新興學(xué)科的正式標簽。然而,在隨后幾十年的時(shí)間里,人工智能的發(fā)展卻并非一帆風(fēng)順,雖然在不同時(shí)期出現了“專(zhuān)家系統”、“深藍”等多項具有標志性意義的成果,但由于客觀(guān)條件的限制,人工智能技術(shù)始終無(wú)法有效解決人們的現實(shí)需求,技術(shù)發(fā)展無(wú)法在產(chǎn)業(yè)層面落地,對于現實(shí)社會(huì )的影響非常有限。

      真正的突破出現在 2009-2010 年前后,硬件設備的進(jìn)步使新一代計算機在運算速度和信息處理能力方面得到大幅提升?;ヂ?lián)網(wǎng)產(chǎn)業(yè)的發(fā)展改變了人類(lèi)的生活方式 , 使得網(wǎng)絡(luò )成為人們獲取日常生活數據最集中、最便捷的渠道。移動(dòng)互聯(lián)時(shí)代的到來(lái),則使來(lái)自網(wǎng)絡(luò )搜索、電子商務(wù)、社會(huì )媒體、科學(xué)研究等不同領(lǐng)域的海量數據迅速累積,為人工智能的飛躍提供了充足的養分。在已具備強大計算能力與大數據環(huán)境的情況下,早在 60 年代就已經(jīng)被提出的多層神經(jīng)網(wǎng)絡(luò )工具煥發(fā)出巨大的生命力,重新成為技術(shù)發(fā)展的主流路徑。

      本輪人工智能發(fā)展熱潮以“深度學(xué)習”為核心,該算法以建立套嵌式的多層次模式識別系統組成的“神經(jīng)”架構為基礎,通過(guò)組合低層特征形成更加抽象的高層屬性、類(lèi)別或特征,借以發(fā)現數據的分布特點(diǎn)。深度學(xué)習的出現帶來(lái)了人工智能算法的跨越,改變了傳統符號主義學(xué)派以計算機模擬人類(lèi)認知系統推進(jìn)人工智能的艱難嘗試,讓人工智能擁有了從海量且復雜的信息源中提取、識別和構建體系的能力,在那些任務(wù)目標明確且相關(guān)數據豐富的領(lǐng)域,深度學(xué)習算法能夠讓機器學(xué)習新的技能,制定有效策略,從而在短時(shí)間內提出超過(guò)人類(lèi)學(xué)習能力的問(wèn)題解決方案。

      隨著(zhù)深度學(xué)習神經(jīng)網(wǎng)絡(luò )成為主流發(fā)展方向,人工智能技術(shù)很快在現實(shí)場(chǎng)景中得以應用。在很短的時(shí)間內,人工智能技術(shù)就在圖像識別、語(yǔ)音識別、機器翻譯、自動(dòng)駕駛甚至棋類(lèi)競賽等復雜的應用場(chǎng)景中獲得了飛速的進(jìn)步,基本達到了滿(mǎn)足人類(lèi)日常需求的標準,具備了商業(yè)投資的價(jià)值,并很快成為資本市場(chǎng)追捧的新熱點(diǎn)。

      邁過(guò)產(chǎn)業(yè)化的門(mén)檻意味著(zhù)人工智能技術(shù)真正走出了實(shí)驗室,能夠對社會(huì )生產(chǎn)和人類(lèi)生活產(chǎn)生直接影響。更重要的是,本輪人工智能技術(shù)的進(jìn)步證明,機器學(xué)習算法能夠在具有很多限定性條件的領(lǐng)域比人類(lèi)做得更好,并且能夠通過(guò)自我學(xué)習不斷進(jìn)步。這一結論事實(shí)上打開(kāi)了人類(lèi)對于人工智能發(fā)展的未來(lái)想象空間,人類(lèi)社會(huì )已經(jīng)能夠清晰地聽(tīng)到未來(lái)社會(huì )匆匆而至的腳步聲。

      人工智能技術(shù)與四大領(lǐng)域的安全風(fēng)險

      誠如馬克思所言,“科學(xué)是歷史的有力杠桿,是最高意義上的革命力量”。作為一項具有時(shí)代意義的科學(xué)思想與技術(shù),人工智能系統能夠通過(guò)大數據分析和學(xué)習理解人類(lèi)的內在需求,作為創(chuàng )造性的伙伴直接參與到人類(lèi)改造世界的活動(dòng)中。它表現出與人類(lèi)理性思維方式相匹敵的思考能力,在一定程度上改變了人類(lèi)與技術(shù)工具的關(guān)系。然而,一切革命性的技術(shù)變革都意味著(zhù)不確定性和風(fēng)險,人工智能革命也將對經(jīng)濟、政治、軍事、社會(huì )等領(lǐng)域產(chǎn)生重大沖擊。如何在潛在的動(dòng)蕩風(fēng)險尚未發(fā)生時(shí)做到未雨綢繆,使技術(shù)革命不至于反噬人類(lèi)本身,是社會(huì )科學(xué)研究者所肩負的重要責任。在此,本報告分析總結了人工智能技術(shù)進(jìn)步對于社會(huì )生活中四大領(lǐng)域所帶來(lái)的潛在風(fēng)險,旨在較為全面地展示我們所需面對的挑戰。

      人工智能技術(shù)對于經(jīng)濟安全的影響

      經(jīng)濟安全是國家安全的重要組成部分。特別是在冷戰結束之后,隨著(zhù)國際體系的內在邏輯變遷,經(jīng)濟安全問(wèn)題日益被各國政府和研究者所重視,將其視為國家安全的核心組成部分,并逐漸擴展為一個(gè)完整的理論體系。其中金融安全、產(chǎn)業(yè)安全、經(jīng)濟信息安全都被視為經(jīng)濟安全問(wèn)題的重要組成部分。人工智能技術(shù)在發(fā)展過(guò)程中首先被視為一項具有明確經(jīng)濟目標的技術(shù)創(chuàng )新,其成果對于經(jīng)濟體系的影響也最為直接。因此,在嘗試討論人工智能技術(shù)所帶來(lái)的安全風(fēng)險時(shí),最為基礎的便是其對國家層面經(jīng)濟安全的影響。

      結構性失業(yè)風(fēng)險

      從歷史上看,任何圍繞著(zhù)自動(dòng)化生產(chǎn)的科技創(chuàng )新都會(huì )造成勞動(dòng)力需求的明顯下降,人工智能技術(shù)的進(jìn)步也同樣意味著(zhù)普遍的失業(yè)風(fēng)險。

      據美國國家科學(xué)技術(shù)委員會(huì )預測,在未來(lái)10~20 年的時(shí)間內,9%~47% 的現有工作崗位將受到威脅,平均每 3 個(gè)月就會(huì )有約 6% 的就業(yè)崗位消失。與傳統基于生產(chǎn)規模下行所導致的周期性失業(yè)不同,由新的技術(shù)進(jìn)步所導致的失業(yè)現象從本質(zhì)上說(shuō)是一種結構性失業(yè),資本以全新的方式和手段替代了對于勞動(dòng)力的需要。結構性失業(yè)的人們在短期內很難重新獲得工作,因為他們之前所能夠適應的崗位已經(jīng)徹底消失,而適應新的崗位則需要較長(cháng)的時(shí)間周期。

      可以預見(jiàn)的是,主要依賴(lài)重復性勞動(dòng)的勞動(dòng)密集型產(chǎn)業(yè)和依賴(lài)于信息不對稱(chēng)而存在的部分服務(wù)行業(yè)的工作崗位將首先被人工智能所取代。隨著(zhù)人工智能技術(shù)在各個(gè)垂直領(lǐng)域不斷推進(jìn),受到威脅的工作崗位將越來(lái)越多,實(shí)際的失業(yè)規模將越來(lái)越大,失業(yè)的持續時(shí)間也將越來(lái)越長(cháng)。這種趨勢的演進(jìn),對于社會(huì )穩定的影響將是巨大的。

      貧富分化與不平等

      人工智能技術(shù)的進(jìn)步所帶來(lái)的另一大經(jīng)濟影響是進(jìn)一步加劇了貧富分化與不平等現象。

      一方面,作為資本擠壓勞動(dòng)力的重要進(jìn)程,人工智能所帶來(lái)的勞動(dòng)生產(chǎn)率提升很難轉化為工資收入的普遍增長(cháng)。在就業(yè)人口被壓縮的情況下,只有少數勞動(dòng)人口能夠參與分享自動(dòng)化生產(chǎn)所創(chuàng )造的經(jīng)濟收益。新創(chuàng )造的社會(huì )財富將會(huì )以不成比例的方式向資本一方傾斜。

      另一方面,人工智能技術(shù)對于不同行業(yè)的參與和推進(jìn)是不平衡的。部分擁有較好數據積累,且生產(chǎn)過(guò)程適宜人工智能技術(shù)介入的行業(yè)可能在相對較短的時(shí)間內獲得較大發(fā)展。在這種情況下,少數行業(yè)會(huì )吸納巨額資本注入與大量的人才集聚,迅速改變國內產(chǎn)業(yè)結構。行業(yè)發(fā)展不平衡的鴻溝與部分行業(yè)大量超額收益的存在將對國家經(jīng)濟發(fā)展產(chǎn)生復雜影響。

      循環(huán)增強的壟斷優(yōu)勢

      作為一項有效的創(chuàng )新加速器,不斷發(fā)展成熟的人工智能技術(shù)可以為技術(shù)領(lǐng)先國家帶來(lái)經(jīng)濟競爭中的戰略?xún)?yōu)勢。人工智能技術(shù)的進(jìn)步需要大量的前期投入,特別是在數據搜集和計算機技術(shù)方面的技術(shù)積累對于人工智能產(chǎn)業(yè)的發(fā)展至關(guān)重要。但各國在該領(lǐng)域的投入差距很大,不同國家在人工智能技術(shù)方面的發(fā)展嚴重不平衡。而人工智能技術(shù)自身潛在的創(chuàng )造力特性又能使率先使用該技術(shù)的國家有更大的機率出現新一輪技術(shù)創(chuàng )新。如果這種邏輯確實(shí)成立,那么少數大國就會(huì )利用人工智能技術(shù)實(shí)現有效的技術(shù)壟斷,不僅能夠使自己獲得大量超額收益,使本已十分嚴重的全球財富分配兩極分化的情況進(jìn)一步加劇,而且將會(huì )隨著(zhù)時(shí)間的推移使差距進(jìn)一步拉大。在這種狀況下,處于弱勢地位的大部分發(fā)展中國家應如何在不利的經(jīng)濟結構中維持自身的經(jīng)濟安全就將成為極具挑戰性的課題。

      小結

      人工智能技術(shù)的發(fā)展已經(jīng)深刻地改變著(zhù)維系國民經(jīng)濟運行和社會(huì )生產(chǎn)經(jīng)營(yíng)活動(dòng)的各項基本生產(chǎn)要素的意義。在人工智能技術(shù)的影響下,資本與技術(shù)在經(jīng)濟活動(dòng)中的地位獲得全面提升,而勞動(dòng)力要素的價(jià)值則受到嚴重削弱。在傳統工業(yè)化時(shí)代重要的人口紅利很可能在新時(shí)代成為新型經(jīng)濟模式下的“不良資產(chǎn)”。新的經(jīng)濟體系的重構過(guò)程將會(huì )引導全球資本和人才進(jìn)一步流向技術(shù)領(lǐng)導國,留給發(fā)展中國家走上現代化道路的機遇期將變得更加有限。人工智能技術(shù)帶來(lái)的全球經(jīng)濟結構調整,將促使經(jīng)濟安全問(wèn)題成為所有發(fā)展中國家所面對的共同挑戰。

      人工智能技術(shù)對于政治安全的影響

      人工智能技術(shù)對于經(jīng)濟領(lǐng)域的深度影響會(huì )自然傳導到政治領(lǐng)域,而人工智能技術(shù)的特性也容易對現有的政治安全環(huán)境產(chǎn)生影響。從議題層面來(lái)看,人工智能技術(shù)及其背后的大數據和算法能夠潛移默化地影響人類(lèi)行為,直接對國內政治行為產(chǎn)生干擾。從結構層面來(lái)看,人工智能所帶來(lái)的社會(huì )經(jīng)濟結構調整,會(huì )使資本的權力在政治體系中呈現擴張態(tài)勢,最終在政治權力分配中獲得相應的反映。除此之外,人工智能技術(shù)的介入,還將影響國際競爭的內容與形態(tài)。因此,對于身處人工智能時(shí)代的國家主體而言,如何在變革的條件下有效維護本國的政治安全與秩序穩定,并且提高參與國際競爭的能力,將是所有國家都不得不面對的重要課題。

      數據與算法的壟斷對于政治議程的影響

      技術(shù)對于各國國內的政治議程所產(chǎn)生的影響軌跡已經(jīng)變得越來(lái)越清晰,在過(guò)去兩年中,圍繞著(zhù) 2016 年美國大選而開(kāi)展的種種政治運作已經(jīng)越來(lái)越明顯地展現出擁有數據和技術(shù)能夠在怎樣的程度上影響政治的結果。

      劍橋分析公司事件的出現非常清晰地顯示出,只要擁有足夠豐富的數據和準確的算法,技術(shù)企業(yè)就能夠為競爭性選舉制造針對性影響。在人工智能技術(shù)的協(xié)助下,各種數據資源的積累,使每個(gè)接受互聯(lián)網(wǎng)服務(wù)的用戶(hù)都會(huì )被系統自動(dòng)畫(huà)像與分析,從而獲得定制化的服務(wù)。然而,漸趨透明的個(gè)人信息本身也就意味著(zhù)這些信息可以輕易服務(wù)于政治活動(dòng)。正如英國第四頻道針對劍橋分析事件所做的評論,“…一只看不見(jiàn)的手搜集了你的個(gè)人信息,挖掘出你的希望和恐懼,以此謀取最大的政治利益?!庇谑?,伴隨著(zhù)技術(shù)的不斷成熟,當某種特定政治結果發(fā)生時(shí),你將難以確定這是民眾正常的利益表達,還是被有目的地引導的結果。

      在人工智能時(shí)代,數據和算法就是權力,這也意味著(zhù)新的政治風(fēng)險。這種技術(shù)干涉國內政治的風(fēng)險對于所有國家都普遍存在,但對于那些技術(shù)水平相對落后的廣大發(fā)展中國家來(lái)說(shuō),這種挑戰顯然更加嚴酷。由于缺乏相應技術(shù)積累,發(fā)展中國家并沒(méi)有充分有效的方式保護自己的數據安全,也沒(méi)有足夠的能力應對算法所帶來(lái)的干涉。人工智能技術(shù)的進(jìn)步將進(jìn)一步凸顯其在政治安全領(lǐng)域的脆弱性特征,傳統的國家政治安全將面臨嚴峻的考驗。

      技術(shù)進(jìn)步與資本權力的持續擴張

      國家權力的分配方式從根本上說(shuō)是由社會(huì )經(jīng)濟生產(chǎn)方式的特點(diǎn)所決定的,不同時(shí)代的生產(chǎn)力水平?jīng)Q定了特定時(shí)段最為合理的政治組織模式。威斯特伐利亞體系中的民族國家體制出現,從根本上說(shuō)正是目前人類(lèi)所創(chuàng )造的最適宜工業(yè)化大生產(chǎn)經(jīng)濟模式的權力分配方式。因此,當人工智能技術(shù)所推動(dòng)的社會(huì )經(jīng)濟結構變革逐步深入時(shí),新的社會(huì )權力分配結構也會(huì )伴隨著(zhù)技術(shù)變革而興起,推動(dòng)國家治理結構與權力分配模式做出相應的調整。

      從當前的各種跡象來(lái)看,資本權力依托技術(shù)和數據壟斷的地位持續擴張將成為新時(shí)代國家治理結構調整的重要特征。人工智能技術(shù)的研究工作門(mén)檻很高,依賴(lài)于巨額且長(cháng)期的資本投入。當前,人工智能研究中最具實(shí)際應用價(jià)值的科研成果多出自大型企業(yè)所支持的研究平臺。超級互聯(lián)網(wǎng)商業(yè)巨頭實(shí)際上掌握了目前人工智能領(lǐng)域的大部分話(huà)語(yǔ)權。人工智能領(lǐng)域研究已經(jīng)深深地打上了資本的烙印,大型企業(yè)對于數據資源以及人工智能技術(shù)的控制能力正在形成他們實(shí)際上的壟斷地位。這種力量將滲入當前深嵌于網(wǎng)絡(luò )的社會(huì )生活的方方面面,利用算法的黑箱為大眾提供他們希望看到的內容,潛移默化地改變公共產(chǎn)品的提供方式。在人工智能時(shí)代,資本和技術(shù)力量的壟斷地位有可能結合在一起,在一定程度上逐漸分享傳統上由民族國家所掌控的金融、信息等重要的權力。資本的權力隨著(zhù)新技術(shù)在各個(gè)領(lǐng)域的推進(jìn)而不斷擴張,這將成為人工智能技術(shù)在進(jìn)步過(guò)程中所帶來(lái)的權力分配調整的重要特征。

      對于民族國家來(lái)說(shuō),資本權力的擴張本身并非不可接受,大型企業(yè)通過(guò)長(cháng)期投資和技術(shù)研發(fā),能夠更加經(jīng)濟、更加有效地在很多領(lǐng)域承擔提供相應公共產(chǎn)品的職能。然而,民族國家能否為資本權力的擴張設定合理的邊界則是關(guān)系到傳統治理模式能否繼續存在的重要問(wèn)題,這種不確定性將成為未來(lái)民族國家所面對的普遍性政治安全風(fēng)險。

      技術(shù)進(jìn)步對主權國家參與國際競爭的挑戰

      人工智能技術(shù)進(jìn)步所帶來(lái)的另一項重要政治安全風(fēng)險是使得技術(shù)落后的國家在國際戰略博弈中長(cháng)期處于不利地位。

      戰略博弈是國際競爭活動(dòng)中最為普遍的形式,參與者通過(guò)判斷博弈對手的能力、意圖、利益和決心,結合特定的外部環(huán)境分析,制定出最為有利的博弈策略并加以實(shí)施。 ①由于國際關(guān)系領(lǐng)域的戰略博弈涉及范圍廣,內容復雜,各項要素相互累加形成的系統效應(System Effects)實(shí)際上已經(jīng)遠遠超出了人類(lèi)思維所能夠分析和掌控的范疇,傳統意義上國家參與戰略博弈的過(guò)程更多依賴(lài)政治家的直覺(jué)與判斷。這種類(lèi)似于“不完全信息博弈”的形態(tài)給人工智能技術(shù)的介入提供了條件。只要技術(shù)進(jìn)步的大趨勢不發(fā)生改變,人工智能所提供的戰略決策輔助系統就將對博弈過(guò)程產(chǎn)生重大影響。

      首先,人工智能系統能夠提供更加精確的風(fēng)險評估和預警,使戰略決策從一種事實(shí)上的主觀(guān)判斷轉變?yōu)榫_化的揀選過(guò)程,提升戰略決策的科學(xué)性。其次,深度學(xué)習算法能夠以更快的速度提供更多不同于人類(lèi)常規思維方式的戰略選項,并且隨著(zhù)博弈過(guò)程的持續,進(jìn)一步根據對方策略的基本傾向對本方策略加以完善,提升實(shí)現戰略決策的有效性。最后,在戰略博弈進(jìn)程中,人工智能系統能夠最大限度排除人為因素的干擾,提高戰略決策的可靠性。

      以人工智能技術(shù)為基礎的決策輔助系統在國際戰略博弈的進(jìn)程中將發(fā)揮重要作用,技術(shù)的完善將使得國際行為體之間戰略博弈能力的差距進(jìn)一步擴大。缺少人工智能技術(shù)輔助的行為體將在風(fēng)險判斷、策略選擇、決策確定、執行效率,以及決策可靠性等多個(gè)方面處于絕對劣勢,整個(gè)戰略博弈過(guò)程將會(huì )完全失衡。一旦這種情況出現,主權國家將不得不參與到技術(shù)競爭中來(lái)。而在資本和技術(shù)都處于落后一方的中小國家將在國際競爭中處于不利地位,也將面對嚴重的政治安全風(fēng)險。

      小結

      人工智能技術(shù)的快速發(fā)展所帶來(lái)的不確定性將直接影響國家的政治安全。它不僅能夠直接作用于國內政治議程,通過(guò)技術(shù)手段對內部政治生態(tài)產(chǎn)生短時(shí)段的直接干擾,而且會(huì )通過(guò)國內社會(huì )經(jīng)濟結構的調整,在長(cháng)時(shí)段內影響原有政治體系的穩定。在人工智能時(shí)代,國內治理格局需要根據經(jīng)濟基礎的變化進(jìn)行調整,作為大工業(yè)時(shí)代產(chǎn)物的科層制管理體系應該如何適應新時(shí)代的要求,將成為影響民族國家國內政治穩定的重要因素。另一方面,人工智能技術(shù)的介入和參與還會(huì )進(jìn)一步拉大國家間的戰略設計與戰略執行能力的差距,技術(shù)的潛力一旦得到完全釋放,將使得國際競爭格局進(jìn)一步失衡,處于弱勢一方的發(fā)展中國家維護自身利益的空間進(jìn)一步縮減。國際關(guān)系行為體之間將呈現出在技術(shù)和制度上的系統性差距,發(fā)展中國家將面臨更加嚴酷的國際競爭環(huán)境。

      人工智能技術(shù)對于軍事安全的影響

      人工智能技術(shù)本身并不是軍事武器,但它天然與軍事安全領(lǐng)域的所有問(wèn)題都存在千絲萬(wàn)縷的聯(lián)系。從人工智能技術(shù)誕生之日起,如何將其有效應用于軍事領(lǐng)域就已被納入所有技術(shù)先進(jìn)國家的考慮范圍之內。這是因為國家的軍事行為與公司等經(jīng)濟組織的商業(yè)行為擁有相似的邏輯,都要求建立一個(gè)有效的系統,以便在競爭性過(guò)程中獲得勝利。整個(gè)過(guò)程中同樣包含快速獲取信息、快速處理信息、做出決策與執行決策等過(guò)程。而隨著(zhù)人工智能技術(shù)的成熟,它將會(huì )被越來(lái)越廣泛地應用于軍事領(lǐng)域,武器系統、軍事策略、軍事組織,甚至戰爭的意義可能會(huì )發(fā)生深刻改變,人類(lèi)社會(huì )也有可能在進(jìn)入人工智能時(shí)代之后迎來(lái)一個(gè)不同的軍事安全環(huán)境。

      完全自主性武器的廣泛應用將帶來(lái)巨大的軍事倫理問(wèn)題

      人工智能技術(shù)不是武器,但能夠成為武器性能提升的助推器。一方面,人工智能技術(shù)的介入,使大量無(wú)人作戰武器參與作戰成為可能。當前,無(wú)人機、無(wú)人地面車(chē)輛、無(wú)人潛航設備已經(jīng)廣泛應用于軍事領(lǐng)域,而各國軍事部門(mén)對于機器人作戰系統的興趣也是有增無(wú)減。利用深度學(xué)習算法,智能化武器可以在虛擬環(huán)境中得到武器操控的基本能力,隨后在現實(shí)環(huán)境中廣泛獲取數據,并根據數據反饋不斷提升戰斗能力,學(xué)習執行各種戰斗命令,最終實(shí)現有效應用于復雜的戰場(chǎng)態(tài)勢。

      另一方面,隨著(zhù)人工智能技術(shù)的發(fā)展,算法的更新可以賦予智能武器新的角色與行動(dòng)邏輯。以智能化無(wú)人機為例,利用人工智能技術(shù),無(wú)人機已不僅是執行定點(diǎn)清除等特殊任務(wù)的執行者,更成為情報搜集、目標定位、策略制定和行動(dòng)發(fā)起的協(xié)調平臺,擔負起前沿信息節點(diǎn)和策略制定等重要任務(wù)。此外,人工智能技術(shù)的成果同樣可以應用于對于各種智能化武器的訓練過(guò)程中。智能化武器的規模越大,其在戰斗中相互協(xié)調的優(yōu)勢就越容易發(fā)揮出來(lái)。通過(guò)共同的算法進(jìn)行“訓練”的大批量智能化武器可以協(xié)調行動(dòng),有助于其最大限度地優(yōu)化其作戰策略,并且根據戰場(chǎng)形勢和作戰目標進(jìn)行靈活調整,最大限度地獲得戰場(chǎng)優(yōu)勢。

      然而,武器系統的快速進(jìn)步也為國家的軍事行為帶來(lái)了嚴重的倫理問(wèn)題。隨著(zhù)技術(shù)的進(jìn)步,完全自主的致命性武器系統能夠做到主動(dòng)識別和選擇目標,確定擬對目標施加的武力級別,并在特定的時(shí)間和空間范圍內對目標實(shí)施規定的武力。但自主武器是否有權力在沒(méi)有人為干涉的情況下自主決定對于目標的殺傷,仍然是人類(lèi)倫理領(lǐng)域的一個(gè)尚無(wú)答案的問(wèn)題。人類(lèi)社會(huì )的運行要建立在很多具有共識性的倫理基礎之上,即使是軍事行為也有很多明確的國際法規范。然而,這些法律規范都立足于人類(lèi)之間的戰爭行為,對于智能化武器的規范尚未形成。特別是處于弱勢一方的軍事組織,在無(wú)法通過(guò)消滅有生力量的方式制止對方戰爭行為的情況下,是否有權利對于對方城市平民發(fā)動(dòng)襲擊,迫使對方停止侵略行為?如果這種行為能夠被接受,那么軍事行動(dòng)的合法性界限到底在哪里?在這些問(wèn)題得到有效解決之前,一旦在現實(shí)戰場(chǎng)上出現智能化武器自主決定對于人類(lèi)的大規模殺傷,人類(lèi)社會(huì )的倫理原則就將面臨重大考驗。

      更加有效的作戰體系的出現很可能觸發(fā)新一輪的軍備競賽

      人工智能技術(shù)的進(jìn)步和智能化武器的發(fā)展,可以使人工智能時(shí)代的作戰體系逐漸趨向去中心化的動(dòng)態(tài)網(wǎng)絡(luò )結構。由于智能化武器本身有承載作戰關(guān)鍵節點(diǎn)的功能,且相互之間能夠實(shí)現數據和策略共享,因此,在戰爭過(guò)程中能夠做到相互取代,從而避免了因為關(guān)鍵節點(diǎn)被攻擊而導致整個(gè)作戰系統失效的結果。同時(shí),人工智能具有更加全面高效搜集戰場(chǎng)信息的能力,能夠利用智能系統重新構筑戰場(chǎng)形態(tài),實(shí)現對戰場(chǎng)真實(shí)情況最大限度的模擬。在人工智能技術(shù)的推動(dòng)下,在軍事安全領(lǐng)域能夠出現更加有效的作戰體系。

      事實(shí)上,人工智能擁有兩個(gè)人類(lèi)無(wú)法比擬的優(yōu)勢,其一,人工智能系統可以快速處理戰場(chǎng)信息,具有人類(lèi)所不具備的快速反應能力。其二,人工智能系統具有多線(xiàn)程處理能力,可以同時(shí)處理軍事行動(dòng)中同時(shí)發(fā)生的多項行動(dòng),并且提出人類(lèi)思維模式所無(wú)法理解的復雜策略。速度是現代戰爭中的重要優(yōu)勢,在現代戰爭信息超載的情況下,成熟的人工智能系統的反應速度和策略安排都將遠遠超過(guò)人類(lèi)體能的極限。技術(shù)的影響將加劇常規軍事力量對抗的不平衡狀態(tài),缺少人工智能技術(shù)輔助的武裝力量將越來(lái)越難以通過(guò)戰術(shù)與策略彌補戰場(chǎng)上的劣勢。常規對抗將不再是合理的戰略選項,不對稱(chēng)戰爭將成為這兩種力量對抗的主要方式。

      人類(lèi)既有的歷史經(jīng)驗多次驗證了任何科技革命的出現都會(huì )使率先掌握新科技的國家與其他國家之間的力量差距進(jìn)一步擴大。作為人類(lèi)科技史上最新的力量放大器,人工智能在軍事領(lǐng)域已經(jīng)展現出明顯超越人類(lèi)的能力與持續發(fā)展的潛力。一旦技術(shù)發(fā)展成熟,這種差距已經(jīng)很難用數量堆砌或策略戰術(shù)加以彌補,應用人工智能的國際行為體在軍事行動(dòng)中很難被尚未使用人工智能技術(shù)的對手擊敗,國際主體間的力量鴻溝變得更加難以跨越。面對這樣的技術(shù)變革浪潮,所有具有相應技術(shù)基礎的大國必然會(huì )千方百計地獲取相關(guān)技術(shù),一場(chǎng)以人工智能技術(shù)為核心的新的軍備競賽恐怕很難避免。

      人工智能技術(shù)會(huì )大大降低戰爭的門(mén)檻

      在現代國際體系中,戰爭被普遍視為國際政治行為中的極端手段。巨大的經(jīng)濟成本與傷亡所造成的國內政治壓力實(shí)際上給戰爭設置了較高的門(mén)檻。然而,隨著(zhù)人工智能技術(shù)的介入,戰爭行動(dòng)的成本與風(fēng)險都有明顯下降的趨勢。

      一方面,人工智能技術(shù)的介入將能夠有效節約軍事行動(dòng)的成本。智能化武器的使用可以有效節約訓練過(guò)程的時(shí)間和人力成本。無(wú)人作戰武器的訓練多依賴(lài)于相對成熟的深度學(xué)習算法,在初始訓練結束后,可以快速復制到所有同類(lèi)型無(wú)人作戰武器上,完成作戰武器的快速培訓過(guò)程。最大限度地節省了人類(lèi)武器操控者需要對所有個(gè)體重復培訓的人力和物力成本,而且可以從整體上做到所有武器操控的同步進(jìn)步。從長(cháng)時(shí)段效果來(lái)看,這更是一種更加經(jīng)濟、更加有效的作戰訓練方式。由于算法與數據的可復制性,部分武器的戰損對于整體作戰效能的影響將大大降低。即使在實(shí)際戰斗中出現戰損情況,其實(shí)際損失也要明顯小于傳統作戰武器。

      另一方面,傳統戰爭模式中最為殘酷的一面是戰爭導致的人員傷亡,這也是現代社會(huì )戰爭行為最為嚴重的政治風(fēng)險。而智能化武器的廣泛應用實(shí)際上減少人類(lèi)直接參與戰斗的過(guò)程,人與武器實(shí)現實(shí)質(zhì)性分離,將戰爭活動(dòng)在很大程度上轉變?yōu)槔脽o(wú)人武器系統的任務(wù)。從而有力地規避了大量傷亡所導致的政治風(fēng)險。在傳統的戰爭形態(tài)中,由于人類(lèi)的深度參與,戰爭的雙方都有較大的可能出現重大傷亡,這是戰爭的不確定性所決定的。在現代政治體系中,戰爭所導致的大量本國人員傷亡會(huì )在國內政治領(lǐng)域形成重要的社會(huì )壓力,客觀(guān)上增加了大國發(fā)動(dòng)戰爭的顧慮,提升了戰爭的門(mén)檻。然而,隨著(zhù)智能化武器的廣泛使用,人員傷亡能夠大大減少,政治風(fēng)險極大降低。這種情況實(shí)質(zhì)上鼓勵大國減少自我約束,更多采取進(jìn)攻性的行動(dòng)來(lái)達到相應的目的,也會(huì )對國際安全形成新的不穩定因素,客觀(guān)上為大國之間的技術(shù)軍備競賽提供了額外的動(dòng)力。

      人工智能技術(shù)給網(wǎng)絡(luò )安全問(wèn)題帶來(lái)的重大風(fēng)險

      網(wǎng)絡(luò )安全本身就是具有顛覆性、殺手锏性質(zhì)的領(lǐng)域,人工智能的應用將會(huì )進(jìn)一步放大網(wǎng)絡(luò )安全在進(jìn)攻和防御方面的作用,從而使得強者愈強。同時(shí),人工智能在網(wǎng)絡(luò )攻擊行動(dòng)和網(wǎng)絡(luò )武器開(kāi)發(fā)中的應用也會(huì )帶來(lái)很大的安全風(fēng)險。這種風(fēng)險主要表現在對自主選擇目標的攻擊是否會(huì )引起附帶的傷害,是否會(huì )超出預設的目標從而導致沖突升級。在現有網(wǎng)絡(luò )領(lǐng)域的沖突中,各方在選擇目標和采取的破壞程度時(shí)都會(huì )非常謹慎,避免產(chǎn)生不必要的傷害以及防止沖突發(fā)生。但是人工智能網(wǎng)絡(luò )武器的使用是否能夠遵循這一謹慎,能否將更多在網(wǎng)絡(luò )安全之外的因素納入到攻擊目標的選擇和攻擊程度的決策上,仍然存在疑問(wèn)。因此,自主攻擊的網(wǎng)絡(luò )武器開(kāi)發(fā)應當被嚴格限制在特定的環(huán)境之下,并且精確地開(kāi)展測試。

      另一方面,自主攻擊網(wǎng)絡(luò )武器的擴散將會(huì )對網(wǎng)絡(luò )安全造成更加難以控制的危害。近年發(fā)生的網(wǎng)絡(luò )武器泄露已經(jīng)給國際安全造成了嚴重威脅,類(lèi)似于 WannaCry 和 NotPetya 這樣源自于美國國家安全局武器庫中網(wǎng)絡(luò )武器泄露再次開(kāi)發(fā)而成的勒索病毒給國際社會(huì )帶來(lái)了幾百億美元的經(jīng)濟損失和重大的公共安全危害。如果更具危害的自主性網(wǎng)絡(luò )武器一旦泄露,其給網(wǎng)絡(luò )安全帶來(lái)的威脅將會(huì )更加嚴重。試想如果恐怖主義集團獲得了可以自動(dòng)對全球各個(gè)關(guān)鍵基礎設施發(fā)動(dòng)攻擊的網(wǎng)絡(luò )武器,那么將會(huì )對全球網(wǎng)絡(luò )安全造成嚴重危害。因此,自主網(wǎng)絡(luò )武器需要有嚴格加密和解密的規定,并且還應當具有在泄露后自我刪除、取消激活等功能。

      技術(shù)本身的安全問(wèn)題與技術(shù)擴散對于全球安全的威脅

      人工智能技術(shù)的介入能夠使軍事武器的作戰效能提升,同時(shí)推動(dòng)成本逐步下降,兩方面優(yōu)勢的同時(shí)存在將使得對智能化武器的追求成為各大國的合理選擇,但這并不意味著(zhù)人工智能技術(shù)已經(jīng)完全解決了可靠性的問(wèn)題。從目前情況看,人工智能技術(shù)本身的安全問(wèn)題與技術(shù)擴散風(fēng)險仍然不可忽視。

      一方面,技術(shù)本身仍存在潛在的安全問(wèn)題。算法與數據是人工智能技術(shù)發(fā)展最重要的兩項要素,但這兩項要素本身都蘊含著(zhù)潛在的安全風(fēng)險。算法是由人編寫(xiě)的,因此,無(wú)法保證程序完全安全、可靠、可控、可信。而從數據角度來(lái)看,人工智能依賴(lài)大數據,同時(shí)數據的質(zhì)量也會(huì )影響算法的判斷。軍事數據的獲取、加工、存儲和使用等環(huán)節都存在著(zhù)一定的數據質(zhì)量和安全風(fēng)險問(wèn)題。軍隊的運作建立在可靠性的基礎之上,而人工智能技術(shù)本身存在的不確定性會(huì )為全球軍事安全帶來(lái)考驗。

      另一方面,人工智能技術(shù)的擴散給全球安全帶來(lái)了威脅。伴隨著(zhù)人工智能武器的開(kāi)發(fā),國際社會(huì )面臨將面臨嚴峻的反擴散問(wèn)題的挑戰??植乐髁x組織以及部分不負責任的國家有可能利用各種途徑獲得人工智能武器,并對國際安全和平產(chǎn)生威脅。人工智能從某種意義上而言,也是一種程序和軟件,因此,它面臨的擴散風(fēng)險要遠遠大于常規武器。經(jīng)驗表明,類(lèi)似于美國國家安全局的網(wǎng)絡(luò )武器庫被黑客攻擊,并且在暗網(wǎng)進(jìn)行交易,最后被黑客開(kāi)發(fā)為勒索病毒的案例也有可能在人工智能武器領(lǐng)域重現。如何控制人工智能技術(shù)擴散所帶來(lái)的風(fēng)險將成為未來(lái)全球軍事安全的重要議題。

      小結

      人工智能技術(shù)在軍事領(lǐng)域的深度介入,是核武器發(fā)明以來(lái)全球軍事領(lǐng)域所出現的最重要的技術(shù)變革之一。以深度學(xué)習為標志的人工智能技術(shù)可以增強信息化作戰系統的能力,這是改變戰爭形態(tài)的基礎。智能化武器的出現在理論上能夠為國家提供低成本和低風(fēng)險的軍事系統,能夠再次在短時(shí)間內放大主體間軍事力量的差距,擁有人工智能技術(shù)的國家將具有全面超越傳統軍事力量的能力,使對方原本有效的傷害手段失效。新的不平衡狀態(tài)可能會(huì )造成重大的倫理問(wèn)題,而中小國家則不得不面對更加嚴酷的軍事安全形勢。如果這種狀況不能得到有效管控,大國將陷入新一輪軍備競賽,而中小國家則必然會(huì )尋找相關(guān)軍事技術(shù)的擴散或新的不對稱(chēng)作戰方式,以便維持自己在國際體系中的影響能力。

      人工智能技術(shù)對于社會(huì )安全的影響

      作為新一輪產(chǎn)業(yè)革命的先聲,人工智能技術(shù)所展現出來(lái)的顛覆傳統社會(huì )生產(chǎn)方式的巨大潛力,以及可能隨之而來(lái)的普遍性失業(yè)浪潮將持續推動(dòng)著(zhù)物質(zhì)與制度層面的改變,也持續地沖擊著(zhù)人們的思想觀(guān)念。面對劇烈的時(shí)代變革與動(dòng)蕩,世界各國都面臨著(zhù)法律與秩序深度調整、新的思想理念不斷碰撞等問(wèn)題。變革時(shí)期的社會(huì )安全問(wèn)題也將成為各國不得不面對的重要挑戰,新的思想與行動(dòng)最終將匯集形成具有時(shí)代特征的社會(huì )思潮,對國家治理方式產(chǎn)生重要影響。

      人工智能技術(shù)帶來(lái)的法律體系調整

      人工智能技術(shù)在社會(huì )領(lǐng)域的滲透逐漸深入,給當前社會(huì )的法律法規和基本的公共管理秩序帶來(lái)了新的危機。新的社會(huì )現象的廣泛出現,超出了原有的法律法規在設計時(shí)的理念邊界,法律和制度產(chǎn)品的供給出現了嚴重的赤字。能否合理調整社會(huì )法律制度,對于維護人工智能時(shí)代的社會(huì )穩定具有重要意義。針對人工智能技術(shù)可能產(chǎn)生的社會(huì )影響,各國國內法律體系至少要在以下幾個(gè)方面進(jìn)行深入思考:

      (1)如何界定人工智能產(chǎn)品的民事主體資格

      盡管目前的人工智能產(chǎn)品還具有明顯的工具性特征,顯然無(wú)法成為獨立的民事主體,但法律界人士已經(jīng)開(kāi)始思考未來(lái)更高級的人工智能形式能否具有民事主體的資格。事實(shí)上,隨著(zhù)人工智能技術(shù)的完善,傳統民法理論中的主體與客體的界限正在日益模糊,學(xué)術(shù)界正在逐步形成“工具”和“虛擬人”兩種觀(guān)點(diǎn)。所謂“工具”,即把人工智能視為人的創(chuàng )造物和權利客體;所謂“虛擬人”是法律給人工智能設定一部分“人”的屬性,賦予其能夠享有一些權利的法律主體資格。這場(chǎng)爭論迄今為止尚未形成明確結論,但其最終的結論將會(huì )對人工智能時(shí)代的法律體系產(chǎn)生基礎性的影響。

      (2)如何處理人工智能設備自主行動(dòng)產(chǎn)生損害的法律責任

      當人工智能系統能夠與機器工業(yè)制品緊密結合之后,往往就具有了根據算法目標形成的自主性行動(dòng)能力。然而,在其執行任務(wù)的過(guò)程中,一旦出現對于其他人及其所有物產(chǎn)生損害的情況,應如何認定侵權責任就成了一個(gè)非常具有挑戰性的問(wèn)題。表面上看,這種侵權責任的主體應該是人工智能設備的所有者,但由于技術(shù)本身的特殊性,使得侵權責任中的因果關(guān)系變得非常復雜。由于人工智能的具體行為受算法控制,發(fā)生侵權時(shí),到底是由設備所有者還是軟件研發(fā)者擔責,很值得商榷。

      (3)如何規范自動(dòng)駕駛的法律問(wèn)題

      智能駕駛是本輪人工智能技術(shù)的重點(diǎn)領(lǐng)域,借助人工智能系統,車(chē)輛可以通過(guò)導航系統、傳感器系統、智能感知算法、車(chē)輛控制系統等智能技術(shù)實(shí)現無(wú)人操控的自動(dòng)駕駛,從而在根本上改變人與車(chē)之間的關(guān)系。

      無(wú)人駕駛的出現意味著(zhù)交通領(lǐng)域的一個(gè)重要的結構變化,即駕駛人的消失。智能系統取代了駕駛人成為交通法規的規制對象。那么一旦出現無(wú)人駕駛汽車(chē)對他人權益造成損害時(shí),應如何認定責任,機動(dòng)車(chē)所有者、汽車(chē)制造商與自動(dòng)駕駛技術(shù)的開(kāi)發(fā)者應如何進(jìn)行責任分配。只有這些問(wèn)題得以解決,才能搭建起自動(dòng)駕駛行為的新型規范。

      歸結起來(lái),人工智能技術(shù)對于社會(huì )活動(dòng)所帶來(lái)的改變正在沖擊著(zhù)傳統的法律體系。面對這些新問(wèn)題和新挑戰,研究者必須未雨綢繆,從基礎理論入手,構建新時(shí)代的法律規范,從而為司法實(shí)踐提供基礎框架。而所有這些都關(guān)系到社會(huì )的安全與穩定。

      思想理念的競爭性發(fā)展態(tài)勢

      隨著(zhù)人工智能技術(shù)的發(fā)展和進(jìn)步,特別是“機器替人”風(fēng)險的逐漸顯現,人類(lèi)社會(huì )逐漸針對人工智能技術(shù)也將逐漸展示出不同的認知與思想理念。不同思想理念之間的差異與競爭反映了社會(huì )對于人工智能技術(shù)的基本認知分歧。同時(shí),不同思想理念所引申的不同策略與邏輯也將成為未來(lái)影響人類(lèi)社會(huì )發(fā)展軌跡的重要方向。

      (1)第一種可能廣泛出現的思想理念是:保守主義

      事實(shí)上,在每一次工業(yè)革命發(fā)生時(shí),人類(lèi)社會(huì )都會(huì )出現對于技術(shù)的風(fēng)險不可控問(wèn)題的擔憂(yōu),人工智能技術(shù)的進(jìn)步也概莫能外。在深度學(xué)習算法釋放出人工智能技術(shù)的發(fā)展潛力之后,在很多領(lǐng)域的人工智能應用系統都僅僅需要很短的學(xué)習時(shí)間,便能夠超越人們多年所積累的知識與技術(shù)。人類(lèi)突然意識到,自己曾經(jīng)引以為傲的思維能力在純粹的科學(xué)力量面前顯得是那樣微不足道。更嚴重的是,深度學(xué)習算法的“黑箱”效應,使人類(lèi)無(wú)法理解神經(jīng)網(wǎng)絡(luò )的思維邏輯。人類(lèi)對未來(lái)世界無(wú)法預知和自身力量有限而產(chǎn)生的無(wú)力感所形成的雙重擔憂(yōu),導致對技術(shù)的恐懼。這種觀(guān)念在各種文藝作品都有充分的表達,而保守主義就是這種社會(huì )思想的集中反映。

      在他們看來(lái),維持人工智能技術(shù)的可控性是技術(shù)發(fā)展不可逾越的界限。 針對弱人工智能時(shí)代即將出現的失業(yè)問(wèn)題,保守主義者建議利用一場(chǎng)可控的“新盧德運動(dòng)” 延緩失業(yè)浪潮,通過(guò)政治手段限制人工智能在勞動(dòng)密集型行業(yè)的推進(jìn)速度,使絕對失業(yè)人口始終保持在可控范圍內,為新經(jīng)濟形態(tài)下新型就業(yè)崗位的出現贏(yíng)得時(shí)間。這種思路的出發(fā)點(diǎn)在于盡可能長(cháng)地維護原有體系的穩定,以犧牲技術(shù)進(jìn)步的速度為代價(jià),促使體系以微調的方式重構,使整個(gè)體系的動(dòng)蕩強度降低。

      然而,在科技快速發(fā)展的時(shí)代,任何國家選擇放緩對新技術(shù)的研發(fā)和使用在國際競爭中都是非常危險的行為。人工智能技術(shù)的快速發(fā)展可以在很短的時(shí)間內使得國家間力量差距被不斷放大。信奉保守主義理念的國家將在國際經(jīng)濟和政治競爭中因為技術(shù)落后陷入非常不利的局面,這也是保守主義思想的風(fēng)險。

      (2)第二種可能廣泛出現的思想理念是:進(jìn)步主義

      這種觀(guān)點(diǎn)的理論出發(fā)點(diǎn)在于相信科技進(jìn)步會(huì )為人類(lèi)社會(huì )帶來(lái)積極的影響,主張利用技術(shù)紅利所帶來(lái)的生產(chǎn)效率提升獲得更多的社會(huì )財富。進(jìn)步主義體現了人類(lèi)對于人工智能技術(shù)的向往,這一思想理念高度評價(jià)人工智能所引領(lǐng)的本輪工業(yè)革命的重要意義。他們解決問(wèn)題的邏輯是要通過(guò)對于制度和社會(huì )基本原則的調整,充分釋放人工智能技術(shù)發(fā)展的紅利,在新的社會(huì )原則基礎上構建一個(gè)更加適應技術(shù)發(fā)展特性的人類(lèi)社會(huì )。

      在進(jìn)步主義者看來(lái),人工智能技術(shù)所導致的大規模失業(yè)是無(wú)法避免的歷史規律,試圖阻止這種狀態(tài)的出現是徒勞的。維持弱人工智能時(shí)代社會(huì )穩定的方式不是人為干預不可逆轉的失業(yè)問(wèn)題,而是改變工業(yè)化時(shí)代的分配原則。利用技術(shù)進(jìn)步創(chuàng )造的豐富社會(huì )財富,為全體公民提供能夠保障其保持體面生活的收入。最終實(shí)現在新的分配方式的基礎上重新構建社會(huì )文化認知,形成新時(shí)代的社會(huì )生活模式。

      進(jìn)步主義思想的主要矛盾在于,它的理論基礎建立在人工智能技術(shù)能夠快速發(fā)展并能夠持續創(chuàng )造足夠豐富的社會(huì )財富的基礎上,從而滿(mǎn)足全球福利社會(huì )的需求。然而,人工智能技術(shù)的發(fā)展歷史從來(lái)不是一帆風(fēng)順,從弱人工智能時(shí)代到強人工智能時(shí)代需要經(jīng)歷多久,至今難有定論。一旦科技進(jìn)步的速度無(wú)法滿(mǎn)足社會(huì )福利的財富需求,進(jìn)步主義所倡導的新的社會(huì )體系的基礎就將出現嚴重的動(dòng)搖,甚至會(huì )出現難以預料的社會(huì )劇烈動(dòng)蕩。

      小結

      變革必然意味著(zhù)風(fēng)險,風(fēng)險則會(huì )帶來(lái)社會(huì )安全的挑戰。人工智能技術(shù)的發(fā)展和進(jìn)步能夠直接作用于經(jīng)濟、政治等多個(gè)領(lǐng)域,也對于社會(huì )結構將產(chǎn)生深遠影響。面對技術(shù)所帶來(lái)的社會(huì )安全風(fēng)險,我們既需要積極調整法律規制體系,努力維持社會(huì )穩定,又要在思想層面上對本輪社會(huì )變遷進(jìn)行深層次的思考。雖然面對奔涌而來(lái)的人工智能浪潮,不同的思想理念展現的應對路徑具有明顯的分歧,但無(wú)論怎樣,我們在思考人類(lèi)與人工智能技術(shù)的關(guān)系時(shí),應該始終堅信,人工智能是人類(lèi)的造物,是人類(lèi)知識與理性的偉大結晶。人工智能可能給世界帶來(lái)的威脅遠遠不及那些人類(lèi)自己可能創(chuàng )造的惡。我們應該以冷靜而客觀(guān)的態(tài)度理解和思考人工智能技術(shù)對于社會(huì )的影響,在處于變革中的并且更趨不平等的世界創(chuàng )造更加穩定、更加合理、更加體現人類(lèi)文明與尊嚴的體系與制度。

      人工智能在國家安全領(lǐng)域的風(fēng)險應對

      目前世界各國政府在人工智能領(lǐng)域的主要關(guān)注點(diǎn)是推動(dòng)發(fā)展,對其所蘊含風(fēng)險則準備不足。如上文所述,在人工智能時(shí)代,世界各國在國家安全領(lǐng)域面臨的各項風(fēng)險是相當嚴峻的。從全球層面來(lái)看,各國所具備的應對舉措還存在較大的缺點(diǎn)。結合人工智能技術(shù)特點(diǎn)和應用發(fā)展趨勢中可能引發(fā)的各項潛在風(fēng)險,我們認為,國家可以從風(fēng)險意識提升、治理體系建設、加強監管能力和國際合作等多個(gè)方面來(lái)構建風(fēng)險分析和應對框架,以提升國家安全的韌性。

      提升風(fēng)險防范意識

      提升風(fēng)險防范意識是應對人工智能時(shí)代國家安全風(fēng)險的重要起點(diǎn)。相對于其他領(lǐng)域的安全風(fēng)險,人工智能在國家安全領(lǐng)域的風(fēng)險具有系統性、不確定性、動(dòng)態(tài)性等特點(diǎn)。此外,人工智能是一個(gè)新的風(fēng)險領(lǐng)域,既有的安全治理經(jīng)驗很少,人們很難從過(guò)去的經(jīng)驗中吸取教訓。因此,無(wú)論是風(fēng)險的識別、預防和化解都是一項全新的挑戰。建立相應的風(fēng)險感知、識別、預防和化解能力框架是現階段應對人工智能風(fēng)險的當務(wù)之急。

      感知風(fēng)險意識

      國家在發(fā)展和應用人工智能技術(shù)過(guò)程中,應當重視提高對技術(shù)以及應用的風(fēng)險意識。由于人工智能技術(shù)的復雜性,企業(yè)常常處于技術(shù)創(chuàng )新和發(fā)展的前沿;而國家在某種程度上遠離技術(shù)的前沿,對技術(shù)的感知存在一定的滯后,并且往往是在事件發(fā)生之后才被動(dòng)地做出反應,這樣就會(huì )錯過(guò)最佳的干預時(shí)期。為了建立主動(dòng)應對的能力,國家首先需要提高對于行業(yè)和領(lǐng)域的風(fēng)險意識,避免由于風(fēng)險意識不足導致的危機。

      例如,在總體國家安全觀(guān)以及其包含的政治安全、國土安全、軍事安全、經(jīng)濟安全、文化安全、社會(huì )安全、科技安全、信息安全、生態(tài)安全、資源安全、核安全等在內的 11 個(gè)安全領(lǐng)域中高度重視人工智能發(fā)展可能帶來(lái)的積極和消極影響。特別是在涉及到政治安全、軍事安全、經(jīng)濟安全、信息安全、核安全等領(lǐng)域,人工智能所包含的風(fēng)險已經(jīng)開(kāi)始顯現,但相應的風(fēng)險意識并沒(méi)有跟上風(fēng)險的威脅程度。在這些重點(diǎn)領(lǐng)域和行業(yè),應當把提升風(fēng)險意識作為制度性工作。

      提升風(fēng)險意識需要國家密切關(guān)注人工智能技術(shù)和應用的發(fā)展,通過(guò)系統思維對其可能在重要安全領(lǐng)域帶來(lái)的風(fēng)險進(jìn)行深度思考。提升意識有助于后續的風(fēng)險識別、預防和化解的過(guò)程,增加國家和社會(huì )對風(fēng)險的重視程度,從而加大資源的投入與人才的培養。

      識別風(fēng)險能力

      識別潛在的風(fēng)險是加強危機應對的重要組成部分,但它又是具有挑戰性的工作。人工智能距離廣泛應用還有一段距離,相應的風(fēng)險還在逐步地顯現,在缺乏足夠的案例的情況下,建立對風(fēng)險的識別能力是一種具有前瞻性和挑戰性的工作。人工智能是一項通用性的技術(shù),有很多方向和突破點(diǎn),這加大了風(fēng)險識別的難度??傮w而言,主要遵循著(zhù)技術(shù)突破——應用創(chuàng )新——新的風(fēng)險這樣一個(gè)過(guò)程。識別風(fēng)險的階段越早,對于風(fēng)險的控制就越容易。已有的案例和技術(shù)發(fā)展的趨勢表明,人工智能所帶來(lái)的風(fēng)險程度高,往往還是具有一定系統性特征,對國家安全所造成的威脅程度較大。對于國家而言,識別人工智能的風(fēng)險能力建設是一項長(cháng)期的工作,需要建立跨學(xué)科的知識背景以及相應的跨部門(mén)協(xié)作機制,在政治安全、經(jīng)濟安全、軍事安全、社會(huì )安全等領(lǐng)域建立相應的風(fēng)險識別機制,加強相應的能力建設。

      風(fēng)險預防能力

      風(fēng)險預防是指對已經(jīng)識別的風(fēng)險和未能識別的風(fēng)險進(jìn)行預防。對已經(jīng)能夠識別的風(fēng)險領(lǐng)域,應當根據自身的脆弱性,制定相應的預案,并且尋求風(fēng)險降級的方法。對于未能識別的風(fēng)險,則需要投入更多的精力,制定相應的規劃,評估處置措施。在國家安全領(lǐng)域建立風(fēng)險預防能力對于政府部門(mén)的動(dòng)員能力有很高的要求。在很多風(fēng)險的預防問(wèn)題上,政府都缺乏足夠的經(jīng)驗,缺乏成熟的應對機制,但是卻需要政府部門(mén)能夠快速地應對,及時(shí)的制定相應的風(fēng)險預防計劃。

      風(fēng)險化解能力

      風(fēng)險化解的能力,最終決定國家在人工智能時(shí)代應對國家安全風(fēng)險的結果。風(fēng)險意識提高、識別能力加強和建立預防能力都是增加風(fēng)險化解能力的關(guān)鍵。但是,最終如何化解風(fēng)險還取決于多方面的能力要素構建。人工智能所具有的跨領(lǐng)域特征,要求首先構建相應的跨部門(mén)協(xié)調機制。 ①人工智能所展現的跨國界特征,則要求建立起相應的國際合作機制??傮w而言,如果化解人工智能的風(fēng)險,就需要持續的關(guān)注和不斷的加強能力建設,這對國家提出了更高的要求。

      最后,風(fēng)險化解一項系統性工程,它并非是要減少和限制人工智能的發(fā)展,相反,它是建立在對人工智能技術(shù)、應用、影響等多個(gè)維度的精確理解基礎之上,在發(fā)展與安全之間取得平衡的一種能力。風(fēng)險管控越有效,人工智能發(fā)展的空間越大,國家競爭力就越強。因此,提升國家安全領(lǐng)域的人工智能風(fēng)險意識以及建立相應的管控機制,是保障其未來(lái)發(fā)展的關(guān)鍵。

      構建安全治理體系

      在提升風(fēng)險意識和加強風(fēng)險應對的同時(shí),國家還應當主動(dòng)加強人工智能安全治理體系的建設,將更多的利益攸關(guān)方納入到治理體系當中,從技術(shù)、產(chǎn)業(yè)、政策、法律等多個(gè)方面建立安全保障體系。

      人工智能是知識密集型和資本密集型的領(lǐng)域,人工智能技術(shù)的開(kāi)發(fā)者,包括算法和數據領(lǐng)域的專(zhuān)家以及應用開(kāi)發(fā)領(lǐng)域的人才大多分布在企業(yè)、研究機構當中。因此,構建多方參與的治理體系是推動(dòng)人工智能治理的主要方式。其中,政府作為監管部門(mén),加強與社群和私營(yíng)部門(mén)之間的互動(dòng),一方面可以掌握技術(shù)和應用發(fā)展的趨勢和方向,另一方面也可以幫助社群和私營(yíng)部門(mén)更好地理解政府的關(guān)切,從而避免因為忽視和誤判引起的不必要安全風(fēng)險。

      治理不同于管理,很大程度上治理是一種開(kāi)放、多方參與的過(guò)程。很多情況下,治理是自下而上的,強調技術(shù)導向的治理方式。它與傳統的自上而下、只有政府參與的管理模式存在很大的不同。目前,以多利益攸關(guān)方為主要治理模式的機制正在人工智能領(lǐng)域出現。例如,在人工智能的安全與管理領(lǐng)域,正在形成新的以社群為中心的治理機制,IEEE《以倫理為基礎的設計》《阿西洛馬倡議》是其中的代表。而國際電信聯(lián)盟這樣的政府間組織也在通過(guò)多利益攸關(guān)方模式發(fā)起《向善的人工智能倡議》。

      政府應與其他的利益攸關(guān)方之間加強交流合作,通過(guò)相應的互動(dòng)機制幫助各方更好地理解國家安全領(lǐng)域的風(fēng)險,以及共同制定相應的風(fēng)險管控機制;避免由于知識與政策之間的鴻溝影響技術(shù)社群、私營(yíng)部門(mén)與政府之間的溝通障礙,導致風(fēng)險出現以及相應的風(fēng)險管控措施無(wú)法出臺。

      加強監管能力建設

      從國家安全角度來(lái)看,政府是應對風(fēng)險最主要的責任人,加強政府的監管能力是降低人工智能風(fēng)險、保障技術(shù)與產(chǎn)業(yè)長(cháng)足發(fā)展的關(guān)鍵。從政府角度而言,建立人工智能的技術(shù)標準體系、應用開(kāi)發(fā)的規范體系以及建立與人工智能時(shí)代相適應的法律體系是保障監管能力的關(guān)鍵。

      技術(shù)標準體系

      人工智能的技術(shù)標準對于技術(shù)本身是否存在漏洞、符合相應的安全要求具有重要的作用。技術(shù)上的漏洞有可能導致人工智能的系統被黑客或其他不法分子利用,從而危害國家安全。例如很多智能音箱所暴露出來(lái)對個(gè)人隱私的侵犯,以及無(wú)人駕駛汽車(chē)由于圖像識別能力不足導致的車(chē)禍等,都暴露出了人工智能還存著(zhù)很多的不完善的地方,有可能會(huì )引發(fā)新的安全風(fēng)險。對于這些缺陷,應當不斷提高技術(shù)標準予以克服。

      技術(shù)標準由技術(shù)社群主導建立,直接面向工程師和開(kāi)發(fā)人員,對于提高人工智能應用的安全性具有重要作用。例如,作為主要的人工智能技術(shù)社群,IEEE 設立了 IEEEP7000 標準工作組,設立了倫理、透明、算法、隱私等 10 大標準工作組,通過(guò)國際化的標準了影響整個(gè)技術(shù)社群。2018 年 1 月,中國國家標準化管理委員會(huì )宣布成立國家人工智能標準化總體組、專(zhuān)家咨詢(xún)組,負責全面統籌規劃和協(xié)調管理我國人工智能標準化工作。標準雖然是面向開(kāi)發(fā)者,但是它作為技術(shù)人員所應遵循的基本規范,對于國家安全而言具有重要作用。

      程序規范體系

      在標準之上,國家還應當在不同的部門(mén)制定相應的規范流程,確保對安全風(fēng)險的控制。以軍事領(lǐng)域為例,無(wú)論是半自主和全自主的武器系統,其設計應允許指揮官和作戰人員在使用武力方面作出適當的人為判斷。在決定是否使用人工智能武器時(shí),應當制定明確的規范和流程,避免造成不可預測的后果。同時(shí),還應當加強對人工智能武器的安全性,避免武器泄露或者隨意轉讓相關(guān)技術(shù)。無(wú)論是無(wú)意或者有意的擴散都會(huì )增加軍備競賽的風(fēng)險,威脅國際安全體系。

      同時(shí)對于人工智能軍事領(lǐng)域的使用,也應當有一套嚴格的流程,確?!昂戏ㄊ褂谩?,即負責授權使用、指揮使用或操作自動(dòng)化和半自主武器系統的人必須遵守戰爭法、其他國際條約、武器系統的安全規則以及適用的交戰規則(ROE)。

      法律法規體系

      為應對人工智能時(shí)代的安全問(wèn)題,國家應當建立相應的法律、法規體系。國際和國內法律界對此展開(kāi)了激烈討論。有學(xué)者認為,“智能革命的出現,對當下的倫理標準、法律規則、社會(huì )秩序及公共管理體制帶來(lái)一場(chǎng)前所未有的危機和挑戰。它不僅與已有法律秩序形成沖突,凸顯現存法律制度產(chǎn)品供給的缺陷,甚至會(huì )顛覆我們業(yè)已構成的法律認知?!本唧w而言,人工智能已經(jīng)在法律資格的主體、致人傷害的責任認定等多個(gè)方面提出了現實(shí)的問(wèn)題。

      從國家安全角度來(lái)看,人工智能的法律、法規所包含的內容更加豐富。從軍事領(lǐng)域看,在應對人工智能武器攻擊時(shí),如何從國際法角度去認定攻擊的性質(zhì)和攻擊的溯源,并應采取何種形式的反擊和應對舉措?在經(jīng)濟領(lǐng)域,如何去規范人工智能造成的金融系統安全問(wèn)題?如何明確相應的責任,對相關(guān)的企業(yè)和人員進(jìn)行處罰?在政治安全領(lǐng)域,對于類(lèi)似“劍橋分析”的大數據公司和互聯(lián)網(wǎng)社交媒體平臺,應當如何制定相應的法律法規,禁止其通過(guò)人工智能對政治安全進(jìn)行干擾和破壞?

      提升國際合作水平

      人工智能所帶來(lái)的問(wèn)題具有全球屬性,它不是某一國家或者某一領(lǐng)域的治理問(wèn)題。從技術(shù)本身來(lái)看,人工智能算法與安全問(wèn)題是人類(lèi)共同面臨的挑戰,具有普適性;從應用角度來(lái)看,各國在人工智能的發(fā)展和應用上對國家安全造成的威脅是跨國界的;從體系角度來(lái)看,人工智能對于地緣經(jīng)濟、地緣安全的顛覆性影響,沖擊甚至重塑著(zhù)現有的國際政治體系,從而影響體系中每一個(gè)行為體的國家安全。因此,加強人工智能領(lǐng)域的國際合作對于應對國家安全風(fēng)險具有重要作用。

      國際法

      聯(lián)合國高度關(guān)注人工智能對于國家安全的影響,經(jīng)過(guò) 2014 年和 2015 年的兩次非正式會(huì )議后,在 2016 年 12 月 16 日關(guān)于特定常規武器公約的聯(lián)合國會(huì )議上成立了致命性自主武器系統(LAWS)政府專(zhuān)家組(GGE)。該小組的任務(wù)是研究致命性自主武器領(lǐng)域的新興技術(shù),評估其對國際和平與安全的影響,并為制定相應的國際法和國際治理提供建議。 2018 年 9 月在日內瓦召開(kāi)的聯(lián)合國常規武器公約的討論中,各方就制定禁止人工智能驅動(dòng)的致命性完全自主武器的條約開(kāi)展討論。全球約有 26 個(gè)國家支持全面禁止人工智能武器,而絕大多數國家還在觀(guān)望,所以這次會(huì )議并未達成共識。但是,在規則缺失和大國戰略競爭的背景下,軍事領(lǐng)域人工智能的發(fā)展帶來(lái)的風(fēng)險和威脅在不斷增加,出臺國際法對于減小人工智能安全風(fēng)險至關(guān)重要。

      技術(shù)強國與弱國之間存在不同的觀(guān)點(diǎn)是導致相應的國際法難以出臺的重要原因。技術(shù)弱國認為應當完全禁止致命性自主武器的開(kāi)發(fā)使用,技術(shù)強國則持相反意見(jiàn),認為開(kāi)發(fā)致命性自主武器可以降低人員損傷,有利于打擊恐怖主義和維護國家安全,并且很多系統已經(jīng)在戰場(chǎng)上進(jìn)入實(shí)戰。軍事是推動(dòng)技術(shù)進(jìn)步的重要因素,互聯(lián)網(wǎng)就是由美國軍方所發(fā)明,同樣,人工智能的技術(shù)發(fā)展背后也有軍事因素在強力推動(dòng)。但是,人工智能的軍備競賽也非技術(shù)之福,特別是致命性自主武器的擴散會(huì )造成更為嚴重的后果。因此,從聯(lián)合國層面制定相應的國際法,并且促成大國之間在發(fā)展致命性自主武器上達成一定的軍控條約是當務(wù)之急。

      當前,在國際法不明確的情況下,各國應克制在軍事領(lǐng)域使用人工智能武器。聯(lián)合國政府專(zhuān)家組也應考慮對國際法此前未曾預見(jiàn)的情況追加法律限制,并以道德或倫理為由盡量減少對人和平民的傷害。更進(jìn)一步的目標包括管理以下風(fēng)險,如使用武力的門(mén)檻降低、意外導致的傷害、預期之外的矛盾升級以及軍備競賽和擴散。

      雙邊及多邊合作

      從聯(lián)合國角度來(lái)達成一項談判可能需要十年甚至更長(cháng)的時(shí)間,鑒于越來(lái)越多的風(fēng)險,大國之間應當及早就人工智能在軍事領(lǐng)域應用可能帶來(lái)的潛在風(fēng)險開(kāi)展對話(huà),及早啟動(dòng)相應的軍控進(jìn)程,短期內促成技術(shù)強國在謀求戰略?xún)?yōu)勢和國際安全體系穩定之間的妥協(xié)。同時(shí),各國政府在面對人工智能時(shí)代的國家安全問(wèn)題上面臨著(zhù)共同的威脅和挑戰,加強彼此之間的合作是應對威脅的解決之道。

      在軍事領(lǐng)域,大國之間可以就人工智能的發(fā)展以及可能觸發(fā)的軍備競賽問(wèn)題開(kāi)展對話(huà),避免由于過(guò)度、過(guò)快的開(kāi)發(fā)軍事應用而引起的倫理問(wèn)題,以及對國際安全體系的穩定造成沖擊??梢灶A見(jiàn),人工智能在軍事領(lǐng)域的應用會(huì )加速發(fā)展,存在的問(wèn)題也會(huì )越來(lái)越多。特別是各國之間對于如何看待人工智能武器,如何進(jìn)行有效互動(dòng)還存在很大的認知差距。這種差距的存在,導致各國在沖突發(fā)生時(shí)缺乏有效的應對手段。因此,各國之間應當就人工智能的軍事安全問(wèn)題開(kāi)展對話(huà),加強管控,增強政策透明度、建立信任措施,降低相應的軍事沖突的風(fēng)險,并且在沖突發(fā)生時(shí)能夠采取有效的危機管控和沖突降級措施。

      在政治安全、經(jīng)濟安全、社會(huì )安全領(lǐng)域,許多國家也都在積極開(kāi)展各種實(shí)踐活動(dòng),相應的做法之間有很大的相互借鑒之處。各國可以就政策實(shí)踐、信息共享、最佳實(shí)踐、案例研究等問(wèn)題開(kāi)展有效對話(huà)。目前看來(lái),主要的大國并未在雙邊層面開(kāi)展相關(guān)的對話(huà),由此帶來(lái)的后果是相互之間的猜忌和不信任程度的增加。令人值得警惕的是,很多人把中國與美國在包括人工智能在內的高科技領(lǐng)域的競爭比作另一個(gè)“星球大戰”,或者所謂的“科技冷戰”,不僅導致了雙方之間相互將對方視為敵手,甚至導致了對科學(xué)研究、供應鏈、產(chǎn)品的人為設限。因此,應通過(guò)相應的對話(huà)機制,通過(guò)有效的溝通來(lái)尋求更多的合作點(diǎn),避免由于相互猜忌導致的惡性競爭。

      總體而言,國家安全風(fēng)險是人工智能發(fā)展過(guò)程中各國必須直面的挑戰,在面臨共同的威脅時(shí),最優(yōu)的做法是攜手應對,通過(guò)相應的國際合作機制來(lái)降低安全威脅,增加合作空間,讓人工智能更好地服務(wù)于人類(lèi)社會(huì )的發(fā)展,增進(jìn)人類(lèi)社會(huì )福祉。

      作者

      封帥, 上海國際問(wèn)題研究院助理研究員,主要研究方向為人工智能和大國關(guān)系。

      魯傳穎, 上海國際問(wèn)題研究院副研究員,主要研究方向為網(wǎng)絡(luò )安全與網(wǎng)絡(luò )空間治理。

      來(lái)源:信息安全與通信保密雜志社

      熱點(diǎn)新聞

      推薦產(chǎn)品

      x
      • 在線(xiàn)反饋
      1.我有以下需求:



      2.詳細的需求:
      姓名:
      單位:
      電話(huà):
      郵件:
      欧美精品欧美人与动人物牲交_日韩乱码人妻无码中文_国产私拍大尺度在线视频_亚洲男人综合久久综合天

    2. <blockquote id="fficu"><optgroup id="fficu"></optgroup></blockquote>

      <table id="fficu"></table>

      <sup id="fficu"></sup>
      <output id="fficu"></output>