本報訊 近日,歐盟委員會(huì )公布了嚴格監管人工智能(AI)的計劃。據《科學(xué)》報道,該委員會(huì )將起草新的法律,包括禁止人類(lèi)無(wú)法解釋的“黑匣子”AI系統,以控制該技術(shù)的高風(fēng)險應用,比如用于醫療設備和自動(dòng)駕駛汽車(chē)。
在宣布該計劃的新聞發(fā)布會(huì )上,歐盟委員會(huì )主席Ursula von der Leyen說(shuō),盡管監管將比此前任何的歐盟規定都更廣泛、更嚴格,但其目標是促進(jìn)信任,而不是恐懼。該計劃還包括更新歐盟2018年AI戰略的措施,以及在未來(lái)10年投入數10億歐元用于研發(fā)。但這并非最終定案,未來(lái)12周內,即在起草具體法律的工作正式啟動(dòng)前,專(zhuān)家、游說(shuō)團體和公眾可對該計劃發(fā)表意見(jiàn)。
相比美國,歐洲對待AI的態(tài)度更謹慎,歐盟官員希望通過(guò)監管贏(yíng)得消費者信任,推動(dòng)AI的更廣泛應用。
歐盟委員會(huì )AI獨立顧問(wèn)小組成員、歐洲政策研究中心AI政策研究員Andrea Renda表示:“歐盟試圖在最擅長(cháng)的領(lǐng)域發(fā)揮領(lǐng)導作用,這是一個(gè)非常堅實(shí)和全面的監管框架?!?nbsp;
該委員會(huì )希望針對醫療、交通或刑事司法等領(lǐng)域的AI“高風(fēng)險”使用,制定有約束力的規則。確定風(fēng)險的標準將包括以下考慮因素:某人是否會(huì )受到傷害——被一輛自動(dòng)駕駛汽車(chē)或醫療設備傷害;或者一個(gè)人是否對機器決策的影響幾乎無(wú)發(fā)言權。
歐盟委員會(huì )還希望通過(guò)人工監管來(lái)阻止不可預測的AI“黑匣子”。這些規則還將用于管理訓練AI系統的大型數據集,以確保這些數據集是合法獲取的、可追溯的,并且足夠廣泛。
法律將確定誰(shuí)對人工智能系統的行為負責——使用它的公司還是設計它的公司,高風(fēng)險的應用程序在部署到歐盟之前必須符合這些規則。
另外,歐盟委員會(huì )計劃提供一種“值得信賴(lài)的AI”認證,以鼓勵在低風(fēng)險使用中自愿遵守,而之后被發(fā)現有違規行為的認證系統可能面臨罰款。
歐盟委員會(huì )還將就面部識別系統“在歐洲展開(kāi)一場(chǎng)廣泛的辯論”。這是一種人工智能形式,可以在人群中未經(jīng)同意而識別個(gè)人。盡管德國等歐盟國家已公布了部署該系統的計劃,但官員們表示,這些系統經(jīng)常違反歐盟隱私法。
該委員會(huì )還將制訂一項“行動(dòng)計劃”,將AI整合到交通和醫療等公共服務(wù)中,并更新其2018年AI發(fā)展戰略,該戰略為研究投入了15億歐元。
來(lái)源:《中國科學(xué)報》