• <blockquote id="fficu"><optgroup id="fficu"></optgroup></blockquote>

    <table id="fficu"></table>

    <sup id="fficu"></sup>
    <output id="fficu"></output>
    1. ABB
      關(guān)注中國自動(dòng)化產(chǎn)業(yè)發(fā)展的先行者!
      CAIAC 2025
      2025工業(yè)安全大會(huì )
      OICT公益講堂
      當前位置:首頁(yè) >> 資訊 >> 行業(yè)資訊

      資訊頻道

      超越“機器人三定律”人工智能期待新倫理
      • 點(diǎn)擊數:685     發(fā)布時(shí)間:2019-04-24 12:29:00
      • 分享到:
      關(guān)鍵詞:

      人工智能的倫理原則近來(lái)備受關(guān)注。聯(lián)合國教科文組織總干事阿祖萊在3月初舉行的“推動(dòng)人性化人工智能全球會(huì )議”上就表示,目前還沒(méi)有適用于所有人工智能開(kāi)發(fā)和應用的國際倫理規范框架。

      對于科幻作家阿西莫夫上世紀設計、防止機器人失控的著(zhù)名“機器人三定律”,業(yè)界早已認識到其局限性?!皺C器人三定律,歷史上看貢獻很大,但現在停留在三定律上,已遠遠不夠?!睂?zhuān)家近日接受記者采訪(fǎng)時(shí)這樣說(shuō)。

      新局面,呼吁倫理新原則

      科學(xué)家先前一直希望以最簡(jiǎn)單的辦法,確保以機器人為代表的人工智能不給人類(lèi)帶來(lái)任何威脅?!皺C器人三定律”規定:機器人不能傷害人類(lèi);它們必須服從于人類(lèi);它們必須保護自己。后來(lái)還加入了“第零定律”:機器人不得傷害人類(lèi)整體,不得因不作為使人類(lèi)整體受到傷害。

      “機器人不能傷害人,但機器人會(huì )以什么方式傷害到人?這種傷害有多大?傷害可能以什么形式出現?什么時(shí)候可能發(fā)生?怎樣避免?這些問(wèn)題在今天要么需要細化,要么需要有更具體的原則來(lái)防范,而不能停留在七八十年前的認識水平?!敝袊斯ぶ悄軐W(xué)會(huì )AI倫理專(zhuān)業(yè)委員會(huì )負責人、中國科學(xué)技術(shù)大學(xué)機器人實(shí)驗室主任陳小平教授說(shuō)。

      全球知名的艾倫人工智能研究所首席執行官埃齊奧尼兩年前就在一次演講中呼吁更新“機器人三定律”。他還提出,人工智能系統必須遵守適用于其操作人員的所有法律條文;人工智能系統必須明確表示它不是人類(lèi);未經(jīng)信息來(lái)源明確許可,人工智能系統不能保留或披露機密信息等。在當時(shí),這些頗有新意的意見(jiàn)引發(fā)業(yè)界熱議。

      美國人工智能倫理領(lǐng)域知名學(xué)者、麻省理工學(xué)院教授泰格馬克近年推廣的“AI有益運動(dòng)”提出,需有新倫理原則確保未來(lái)人工智能和人類(lèi)的目標一致。這項活動(dòng)曾獲得霍金等眾多全球頂級科學(xué)家以及知名IT企業(yè)支持。

      “人工智能在乘數效應的推動(dòng)下會(huì )變得越來(lái)越強大,留給人類(lèi)試錯的空間將越來(lái)越小?!碧└耨R克說(shuō)。

      人為本,全球探路新倫理

      當前全球對人工智能新倫理的研究日趨活躍。不少人對人工智能心存芥蒂,多半來(lái)自其高速發(fā)展帶來(lái)的未知性,“保護人類(lèi)”成為首當其沖的關(guān)切。

      “必須確保人工智能以人為本的發(fā)展方向?!卑⒆嫒R呼吁。

      美國機器智能研究院奠基人尤德科夫斯基提出了“友好人工智能”的概念,認為“友善”從設計伊始就應當被注入機器的智能系統中。

      新倫理原則不斷提出,但突出以人為本的理念始終不變。百度公司創(chuàng )始人李彥宏在2018年中國國際大數據產(chǎn)業(yè)博覽會(huì )上提出了“人工智能倫理四原則”,首要原則就是安全可控。

      美國電氣和電子工程師協(xié)會(huì )規定,人工智能要優(yōu)先考慮對人類(lèi)和自然環(huán)境的好處的最大化。

      新的倫理原則制定也正提上各國政府的議事日程。

      中國政府2017年7月發(fā)布《新一代人工智能發(fā)展規劃》時(shí)就指出,建立人工智能法律法規、倫理規范和政策體系,形成人工智能安全評估和管控能力;2018年4月,歐盟委員會(huì )發(fā)布的文件《歐盟人工智能》提出,需要考慮建立適當的倫理和法律框架,以便為技術(shù)創(chuàng )新提供法律保障;今年2月11日,美國總統特朗普簽署行政令,啟動(dòng)“美國人工智能倡議”,該倡議的五大重點(diǎn)之一便是制定與倫理有關(guān)聯(lián)的人工智能治理標準。

      存憂(yōu)慮,跨界共商新問(wèn)題

      陳小平呼吁,為規避人工智能發(fā)展過(guò)程中的倫理道德風(fēng)險,人工智能學(xué)術(shù)界和產(chǎn)業(yè)界,以及倫理、哲學(xué)、法律等社會(huì )學(xué)科各界應參與原則制定并緊密合作。

      他認為,雖然從短期看還沒(méi)有證據指向人工智能有重大風(fēng)險,但依然存在隱私泄露、技術(shù)濫用等問(wèn)題。而無(wú)人駕駛、服務(wù)類(lèi)機器人的倫理原則也須盡快探討制定。

      美國電氣和電子工程師協(xié)會(huì )還規定,為了解決過(guò)錯問(wèn)題,避免公眾困惑,人工智能系統必須在程序層面具有可追責性,證明其為什么以特定方式運作。

      “就長(cháng)期來(lái)看,不能等到出現了嚴重的問(wèn)題,再制定措施去防止?!标愋∑秸J為,人工智能和其他技術(shù)的特點(diǎn)不一樣,很多人工智能技術(shù)具有自主性。例如自主機器人在現實(shí)社會(huì )中具有物理行動(dòng)能力,如果沒(méi)有適當的防范措施,一旦出現嚴重問(wèn)題,可能危害較大。

      陳小平希望更多人參與人工智能倫理研究,尤其是科學(xué)家和工程師,因為恰恰他們最了解問(wèn)題的根源、危險可能發(fā)生的方式、細節和相關(guān)技術(shù)進(jìn)展,“他們不說(shuō),外界只能去猜,難以得出正確的判斷和適當的應對措施”。

      他還提醒,在防范風(fēng)險的同時(shí)應該注意平衡,避免因為過(guò)度限制或使用不合適的降低風(fēng)險方式造成遏制產(chǎn)業(yè)發(fā)展的副作用。

      摘自《新華網(wǎng)》

      熱點(diǎn)新聞

      推薦產(chǎn)品

      x
      • 在線(xiàn)反饋
      1.我有以下需求:



      2.詳細的需求:
      姓名:
      單位:
      電話(huà):
      郵件:
      欧美精品欧美人与动人物牲交_日韩乱码人妻无码中文_国产私拍大尺度在线视频_亚洲男人综合久久综合天

    2. <blockquote id="fficu"><optgroup id="fficu"></optgroup></blockquote>

      <table id="fficu"></table>

      <sup id="fficu"></sup>
      <output id="fficu"></output>