10月8日,由科技部、教育部、工業(yè)和信息化部等十部門(mén)聯(lián)合印發(fā)的《科技倫理審查辦法(試行)》正式公布。
《辦法》明確, 高等學(xué)校、科研機構、醫療衛生機構、企業(yè)等是本單位科技倫理審查管理的責任主體。從事生命科學(xué)、醫學(xué)、人工智能等科技活動(dòng)的單位,研究?jì)热萆婕翱萍紓惱砻舾蓄I(lǐng)域的,應設立科技倫理(審查)委員會(huì )。值得注意的是,該《辦法》提及的《需要開(kāi)展倫理審查復核的科技活動(dòng)清單》中,包括具有輿論社會(huì )動(dòng)員能力和社會(huì )意識引導能力的算法模型、應用程序及系統的研發(fā)。
相關(guān)數據顯示,今年以來(lái),我國人工智能大模型迎來(lái)井噴期。截至7月底,我國累計有130個(gè)人工智能大模型問(wèn)世,其中,僅今年前7個(gè)月就有64個(gè)大模型發(fā)布。不久前,首批通過(guò)《生成式人工智能服務(wù)管理暫行辦法》備案的11個(gè)大模型產(chǎn)品獲批向全社會(huì )開(kāi)放服務(wù)。與此同時(shí),對于算法模型倫理風(fēng)險的關(guān)注也提上日程。人工智能算法模型的倫理風(fēng)險表現在哪些方面?《辦法》的出臺,為國內人工智能大模型的發(fā)展提出了什么樣的要求?
推動(dòng)算法模型
健康穩定可控有序發(fā)展
中國科學(xué)院科技戰略咨詢(xún)研究院研究員肖尤丹在接受記者采訪(fǎng)時(shí)表示,科技倫理審查是防范科技風(fēng)險的重要機制,更是有力保障特定技術(shù)領(lǐng)域健康發(fā)展的基礎性制度??萍紓惱韺彶榧炔皇怯尚姓C關(guān)實(shí)施的行政審查或者審批,也不是一般意義上的合法性或合規性審查,而是以特定責任單位、科技倫理(審查)委員會(huì )為主體,根據《科技進(jìn)步法》和《辦法》的規定開(kāi)展的專(zhuān)業(yè)性、自律性管理活動(dòng)。在一定程度上,科技倫理審查是應對前沿科技活動(dòng)的風(fēng)險彈性與法律制度、行政管理的剛性約束長(cháng)期存在的沖突,彌補現有行政管理和法律規制局限性的產(chǎn)物。
北京市京師律師事務(wù)所合伙人律師盧鼎亮認為,《辦法》主要是要求對涉及到生命健康、生態(tài)環(huán)境、公共秩序、可持續發(fā)展等科技倫理敏感領(lǐng)域的人工智能算法模型科技活動(dòng)進(jìn)行科學(xué)倫理審查。人工智能算法的發(fā)展也要遵循科學(xué)倫理的要求,對涉及到科學(xué)倫理底線(xiàn)的相關(guān)科技活動(dòng)需要進(jìn)行客觀(guān)評估和審慎對待,并且針對人工智能大模型科技活動(dòng)中的不確定性和科技倫理風(fēng)險進(jìn)行審查評估。
“《辦法》的出臺并非為人工智能算法模型的發(fā)展戴上‘緊箍咒’,相反該《辦法》的出臺能夠促進(jìn)人工智能算法領(lǐng)域的科技活動(dòng)更加健康穩定可控有序的發(fā)展?!北R鼎亮說(shuō)。
“對于新興技術(shù)和前沿科技領(lǐng)域發(fā)展而言,《辦法》的出臺更多地是為促進(jìn)創(chuàng )新主體勇于探索未知和前沿提供了邊界更為清晰、預期更為穩定的機制保障?!毙び鹊け硎?。
肖尤丹認為,《辦法》的出臺必將有利于在科技倫理框架下加快包括人工智能大模型等前沿新興技術(shù)的健康發(fā)展,也能在相關(guān)程度上促進(jìn)相關(guān)領(lǐng)域開(kāi)展更全面、更深入和更持續的國際科技合作,形成更公正、更透明、更負責任的前沿技術(shù)創(chuàng )新生態(tài)。
倫理審查從哪些方面進(jìn)行
業(yè)界認為,從當前社會(huì )輿論的普遍認知來(lái)看,人工智能算法模型的倫理風(fēng)險主要表現在以下幾個(gè)方面:一是數據偏見(jiàn)與歧視。如果AI的訓練數據不平衡或包含偏見(jiàn),那么這種偏見(jiàn)可能會(huì )被模型放大,導致輸出結果也存在偏見(jiàn)。這可能會(huì )對某些群體造成不公平的待遇或歧視。二是隱私侵犯。AI模型在數據采集、處理和分析過(guò)程中可能會(huì )侵犯到個(gè)人的隱私權。比如,沒(méi)有得到明確許可的情況下進(jìn)行的數據收集,或者使用數據進(jìn)行精準的個(gè)人畫(huà)像等。三是缺乏透明度。復雜的AI模型(例如深度學(xué)習模型)往往難以解釋?zhuān)狈ν该鞫?,使得外部很難理解它們的決策過(guò)程和邏輯。四是責任歸屬不明確。當AI模型犯錯或導致某些損失時(shí),誰(shuí)應該為此承擔責任可能并不明確。五是安全性問(wèn)題:AI模型可能被惡意攻擊者操縱或欺騙,從而做出不當或不安全的決策。此外,在某些應用中,例如自動(dòng)化武器或決策系統,使用AI可能會(huì )觸及深層的道德和倫理問(wèn)題。過(guò)度依賴(lài)或與AI互動(dòng)可能會(huì )影響人們的社交技能、心理健康或日常生活習慣等。
肖尤丹認為,根據《辦法》的規定,結合人工智能算法模型科技活動(dòng)的倫理風(fēng)險,科技倫理審查可能需要重點(diǎn)考慮兩個(gè)方面:一是準確區分科技倫理審查與現有安全評估、算法備案、合規審查和行業(yè)監督機制的差別。二是根據所涉科技活動(dòng)的類(lèi)型和性質(zhì)合理確定倫理審查重點(diǎn)。
科技倫理審查適用范圍
肖尤丹分析,此次出臺的《辦法》第二條明確了科技倫理審查的適用范圍,應當不能簡(jiǎn)單地將科技倫理審查等同于安全審查或者安全評估。另外,《辦法》第五十四條還專(zhuān)門(mén)對科技倫理審查與之前已經(jīng)存在的一些涉及技術(shù)的其他性質(zhì)倫理審查規范之間的適用進(jìn)行了規定,強化了科技倫理審查的專(zhuān)門(mén)性。
“從倫理風(fēng)險生成機制和場(chǎng)景看,科學(xué)技術(shù)研究活動(dòng)與產(chǎn)品服務(wù)開(kāi)發(fā)活動(dòng)、技術(shù)應用活動(dòng)的倫理風(fēng)險和審查關(guān)注點(diǎn)顯然并不相同?!毙び鹊け硎?,在研究過(guò)程中,應當更加關(guān)注研究人員資質(zhì)、研究基礎及設施條件是否符合相關(guān)要求,研究活動(dòng)的科學(xué)價(jià)值、社會(huì )價(jià)值和研究目標的積極作用,關(guān)注涉及以人為研究參與者時(shí)的個(gè)人信息保護和知情同意,數據的收集、存儲、加工、使用等處理活動(dòng)以及研究開(kāi)發(fā)數據新技術(shù)等符合國家數據安全和個(gè)人信息保護等有關(guān)規定。在產(chǎn)品服務(wù)開(kāi)發(fā)和技術(shù)應用方面,應當更關(guān)注算法、模型和系統的設計、實(shí)現、應用的公平、公正、透明、可靠、可控,以及數據合規、安全合規和用戶(hù)權益保護。
“作為本單位科技倫理審查管理的責任主體,人工智能企業(yè)應該評估擬開(kāi)展的科技活動(dòng)是否符合《辦法》第三條規定的科技倫理原則,參與科技活動(dòng)的科技人員資質(zhì)、研究基礎及設施條件等是否符合相關(guān)要求;倫理風(fēng)險控制方案及應急預案是否科學(xué)恰當、是否具有可操作性?!北R鼎亮認為,此外,還應該評估個(gè)人隱私數據、生物特征信息等信息處理是否符合個(gè)人信息保護的有關(guān)規定;數據的收集、存儲、加工、使用等處理活動(dòng)以及研究開(kāi)發(fā)數據新技術(shù)等是否符合國家數據安全和個(gè)人信息保護等有關(guān)規定,數據安全風(fēng)險監測及應急處理方案是否得當;算法、模型和系統的設計、實(shí)現、應用等是否遵守公平、公正、透明、可靠、可控等原則。
中關(guān)村物聯(lián)網(wǎng)產(chǎn)業(yè)聯(lián)盟副秘書(shū)長(cháng)、專(zhuān)精特新企業(yè)高質(zhì)量發(fā)展促進(jìn)工程執行主任袁帥認為,與傳統科技活動(dòng)的風(fēng)險相比,人工智能算法模型的風(fēng)險具有更高的隱蔽性和難以證明性。由于人工智能算法模型的決策是基于歷史數據和模式,而這些數據和模式可能存在偏見(jiàn)和歧視等問(wèn)題,因此其帶來(lái)的風(fēng)險可能會(huì )在長(cháng)時(shí)間過(guò)程中逐漸顯現?!耙虼?,需要政府、企業(yè)、學(xué)術(shù)界和社會(huì )公眾等多方協(xié)作,共同應對這一挑戰?!痹瑤浾f(shuō)。
來(lái)源:《中國高新技術(shù)產(chǎn)業(yè)導報》