• <blockquote id="fficu"><optgroup id="fficu"></optgroup></blockquote>

    <table id="fficu"></table>

    <sup id="fficu"></sup>
    <output id="fficu"></output>
    1. 20240703
      關(guān)注中國自動(dòng)化產(chǎn)業(yè)發(fā)展的先行者!
      工業(yè)智能邊緣計算2024年會(huì )
      2024
      2024中國自動(dòng)化產(chǎn)業(yè)年會(huì )
      2023年工業(yè)安全大會(huì )
      OICT公益講堂
      當前位置:首頁(yè) >> 資訊 >> 行業(yè)資訊

      資訊頻道

      人工智能如何可信可控可用
      • 點(diǎn)擊數:939     發(fā)布時(shí)間:2023-01-28 11:31:20
      • 分享到:
      在以“人工智能治理技術(shù)”為主題的第二場(chǎng)主論壇討論上,與會(huì )專(zhuān)家共同探討如何通過(guò)技術(shù)工具實(shí)現人工智能可知、可信、可控和可用,以及如何將產(chǎn)業(yè)監管要求轉化為技術(shù)解決方案,開(kāi)發(fā)針對人工智能行業(yè)或應用的治理技術(shù)與服務(wù)。

      “人工智能改變了安全格局,進(jìn)一步擴大了威脅,需要從多個(gè)層面進(jìn)行風(fēng)險管控?!痹诮张e辦的第三屆人工智能合作與治理國際論壇上,針對目前人工智能帶來(lái)的風(fēng)險和挑戰,中國工程院院士、鵬城實(shí)驗室主任高文認為,在人的層面,應加強倫理教育;在模型算法層面,期望它可信、可控、可解釋并且被正當使用;在數據層面,期望建立充足的系統防護保證數據安全。

      人工智能進(jìn)入從高速增長(cháng)向高質(zhì)量增長(cháng)轉變的新發(fā)展階段,對人工智能技術(shù)的安全性和可靠性提出了更多新要求。

      在以“人工智能治理技術(shù)”為主題的第二場(chǎng)主論壇討論上,與會(huì )專(zhuān)家共同探討如何通過(guò)技術(shù)工具實(shí)現人工智能可知、可信、可控和可用,以及如何將產(chǎn)業(yè)監管要求轉化為技術(shù)解決方案,開(kāi)發(fā)針對人工智能行業(yè)或應用的治理技術(shù)與服務(wù)。

      建設可信賴(lài)人工智能

      高文認為,強人工智能安全風(fēng)險來(lái)源于3個(gè)方面,一是模型的不可解釋性,二是算法和硬件的不可靠性,三是自主意識的不可控性。對于這些,一方面要在設計及應用階段采取預防和檢測措施,另一方面要加強國際合作,相互取長(cháng)補短,還要加強人才培養。

      對于數據安全問(wèn)題,他認為隱私保護和數據有效使用是一對矛盾,需要做到平衡。鵬城實(shí)驗室所采用的“防水堡”技術(shù),為保護模型訓練數據安全共享和使用提供了解決思路。該技術(shù)可以做到只分享價(jià)值、不分享數據,在保證原始數據不移動(dòng)的情況下使數據可用。

      美國哥倫比亞大學(xué)常務(wù)副校長(cháng)、計算機科學(xué)系教授周以真介紹了正在推動(dòng)的“值得信賴(lài)的人工智能”研究議程。該議程的目的在于把人工智能、網(wǎng)絡(luò )安全和形式化方法三者聚集在一起。她指出,一些人工智能系統可能是脆弱和不公平的,因此需要努力實(shí)現可信賴(lài)的人工智能。

      “可信賴(lài)計算意味著(zhù)可靠性、安全性、可用性,要考慮準確性、穩健性、公平性,針對問(wèn)責制、透明度、可解釋性、道德倫理等設置人工智能執行的任務(wù)和環(huán)境。除了必要的測試、模擬和良好的軟件工程實(shí)踐外,還要構建可信系統的事后驗證方法,即用數據模型、代碼程序滿(mǎn)足我們關(guān)心的正確性屬性、安全性屬性、活性屬性等性質(zhì),并通過(guò)列舉研究問(wèn)題應用形式化方法,嘗試實(shí)現人工智能系統的可信度?!敝芤哉嬲f(shuō)。

      清華大學(xué)智能產(chǎn)業(yè)研究院首席研究員聶再清認為,安全可信是人工智能治理的核心訴求,安全可信的人工智能技術(shù)產(chǎn)品需要具備安全可控、數據資產(chǎn)和隱私保護、可解釋性等條件。他以車(chē)路協(xié)同感知為例,講解了自動(dòng)駕駛領(lǐng)域如何通過(guò)多傳感器的協(xié)同感知,提升人工智能協(xié)同內部可靠性,從而提高人工智能安全性。

      “例如面向營(yíng)養健康管理的可解釋個(gè)性化推薦,需要‘引導式’而非‘迎合式’信息推薦,提升用戶(hù)依從性并充分考慮營(yíng)養健康因素,避免迎合式的飲食推薦?!甭櫾偾逭f(shuō)。

      “治理技術(shù)”創(chuàng )新應對風(fēng)險挑戰

      近年來(lái),人工智能應用領(lǐng)域進(jìn)一步拓展。面對新興技術(shù)可能帶來(lái)的巨大收益和潛在風(fēng)險,與會(huì )專(zhuān)家高度關(guān)注其治理問(wèn)題。

      從技術(shù)角度或技術(shù)應用角度,怎樣才能實(shí)現人工智能技術(shù)的可用、管用乃至好用?高文說(shuō):“很多技術(shù)在發(fā)展過(guò)程中,過(guò)早說(shuō)哪個(gè)不能用可能會(huì )抑制技術(shù)本身的發(fā)展,現階段更多是從道德層面引導,盡量把一些可能的風(fēng)險抑制工具想明白?!?/p>

      聶再清認為,創(chuàng )新和監管之間需要平衡,一方面,從事研發(fā)的個(gè)人有責任保證將工具或創(chuàng )新控制在危險可控范圍內;另一方面社會(huì )也要集體監督,確保某個(gè)出現問(wèn)題的產(chǎn)品或技術(shù)能夠回滾、撤銷(xiāo)。

      “技術(shù)可解釋性需要將技術(shù)發(fā)展與應用場(chǎng)景深度結合,在不同領(lǐng)域需要不同的可解釋能力及可解釋級別,讓技術(shù)在應用場(chǎng)景下發(fā)揮最好的作用?!比鹑R智慧(RealAI)公司聯(lián)合創(chuàng )始人及首席執行官田天指出。

      新技術(shù)往往會(huì )給現有社會(huì )倫理規范帶來(lái)沖擊,現階段是否有必要設計一部分可操作的具體規則,特別是將倫理準則嵌入到人工智能產(chǎn)品與系統研發(fā)設計中?

      田天表示,在發(fā)展階段需要以鼓勵為主,各種人工智能難免涉及一些模糊地帶,一方面不能一棒子打死導致技術(shù)無(wú)法進(jìn)步,另一方面也要設立一些紅線(xiàn),制定清晰的懲罰規定確保人工智能不觸犯人類(lèi)利益。在此基礎上,給智能應用留有更多空間,鼓勵重視倫理,提供正向激勵,促進(jìn)合規發(fā)展。

      清華大學(xué)人工智能研究院常務(wù)副院長(cháng)孫茂松認為,應鼓勵應用、鼓勵創(chuàng )新,在行動(dòng)中及時(shí)發(fā)現問(wèn)題,及時(shí)改正,及時(shí)總結經(jīng)驗,使人工智能技術(shù)在應用中更好地完善和發(fā)展。

      關(guān)于人類(lèi)自身偏見(jiàn)和歧視被寫(xiě)進(jìn)代碼造成人工智能偏見(jiàn)與歧視的問(wèn)題,聶再清認為人工智能基于數據學(xué)習獲取知識錯誤并不是觀(guān)點(diǎn)歧視,而是能力不足。其有可能通過(guò)引入更多知識庫或知識圖譜得到提升,而不應該在倫理層面過(guò)分拔高,更多還是解決訓練數據問(wèn)題。

      本屆論壇由清華大學(xué)主辦,清華大學(xué)人工智能?chē)H治理研究院承辦。

      來(lái)源:《中國科學(xué)報》

      熱點(diǎn)新聞

      推薦產(chǎn)品

      x
      • 在線(xiàn)反饋
      1.我有以下需求:



      2.詳細的需求:
      姓名:
      單位:
      電話(huà):
      郵件:
      欧美精品欧美人与动人物牲交_日韩乱码人妻无码中文_国产私拍大尺度在线视频_亚洲男人综合久久综合天

    2. <blockquote id="fficu"><optgroup id="fficu"></optgroup></blockquote>

      <table id="fficu"></table>

      <sup id="fficu"></sup>
      <output id="fficu"></output>