“人工智能很單純,復雜的是人”——在探討人工智能(AI)的公平性時(shí),香港科技大學(xué)講席教授、微眾銀行首席AI官楊強巧妙地化用了一句流行歌詞。他認為,AI技術(shù)發(fā)展中出現的諸多公平性問(wèn)題,其實(shí)映射了人類(lèi)社會(huì )中本已存在的歧視和偏見(jiàn)。
在未來(lái)論壇近日發(fā)起的“AI向善的理論與實(shí)踐”論壇上,多位業(yè)內專(zhuān)家圍繞“AI公平”這個(gè)話(huà)題開(kāi)展了深入討論。
AI跟誰(shuí)學(xué)到了“偏心”?
與人類(lèi)社會(huì )相似,在A(yíng)I的世界里,偏見(jiàn)與不公隨處可見(jiàn)。
2014年,亞馬遜公司啟動(dòng)了一個(gè)通過(guò)AI技術(shù)開(kāi)展自動(dòng)化招聘的項目。這個(gè)項目完全基于求職者簡(jiǎn)歷提供的信息,通過(guò)AI算法進(jìn)行評級。然而,第二年亞馬遜便意識到這個(gè)機器腦瓜并不像想象中那樣公平公正——它似乎在歧視女性!當一份簡(jiǎn)歷中出現“women”等字眼時(shí),在打分上就會(huì )吃虧。
亞馬遜分析,這是因為他們使用了過(guò)去10年的歷史數據來(lái)訓練這個(gè)AI模型,而歷史數據中包含對女性的偏見(jiàn)。之后,亞馬遜便不再用這個(gè)算法來(lái)進(jìn)行招聘。
“AI的公平性問(wèn)題,本質(zhì)上并非來(lái)源于技術(shù)本身,而是來(lái)自人心,也就是說(shuō),其本源是社會(huì )的公平性?!敝锌圃河嬎慵夹g(shù)研究所研究員、中科視拓(北京)聯(lián)合創(chuàng )始人山世光說(shuō)。
他解釋道,AI技術(shù)從算法和系統的設計,走向社會(huì )的應用實(shí)踐,這個(gè)過(guò)程涉及方方面面的人,在很多環(huán)節,都有可能有意或無(wú)意地引入歧視和偏見(jiàn)?!耙源蠹易钍煜さ摹】荡a’為例,這個(gè)產(chǎn)品在為防疫作出重大貢獻的同時(shí),也因為給老年出行帶來(lái)困難等現象,引起了很多爭議。這就是目標人群設定不夠周全,而引入了潛在的歧視風(fēng)險?!彼f(shuō)。
除了不同人群間的公平問(wèn)題,AI公平還涉及到開(kāi)發(fā)者和使用者(通常是企業(yè)和用戶(hù))之間的不平等問(wèn)題。
清華大學(xué)法學(xué)院院長(cháng)申衛星補充了一個(gè)生活中非常常見(jiàn)的案例。大量App在使用時(shí)會(huì )出現一個(gè)“知情同意”的選項,這個(gè)知情同意書(shū)往往少則上千字,多則上萬(wàn)字,大量的信息讓消費者無(wú)力長(cháng)時(shí)間閱讀,只好選擇同意,否則只能退出。
“過(guò)去我們對知情同意格式條款的主要要求是‘告知要充分’。但現在更常見(jiàn)的問(wèn)題反而是‘告知過(guò)量’,或者叫信息超載?!鄙晷l星說(shuō),“過(guò)度冗余的格式條款,其實(shí)恰恰剝奪了消費者的自我決定權。這是一種非常隱蔽的不公平?!?/p>
“雙刃劍”的正確打開(kāi)方式
AI技術(shù)與社會(huì )公平的關(guān)系,比想象中更為復雜。
搜狗公司CEO王小川指出:“總體來(lái)講,AI技術(shù)的高度發(fā)展對公平性的提升是有利的。首先在技術(shù)的加持下,教育、醫療等重大領(lǐng)域在資源供給的數量和質(zhì)量上都會(huì )有極大提升,供給側的繁榮有助于緩解社會(huì )資源分配不均;其次,隨著(zhù)大數據的連接,人們有機會(huì )在全局層面上提煉主要矛盾,探討公平問(wèn)題,進(jìn)而達成社會(huì )共識?!?/p>
但這也是一柄“雙刃劍”?!盎ヂ?lián)網(wǎng)發(fā)展、信息發(fā)展和AI發(fā)展為公平性提供了更好的抓手,但也會(huì )帶來(lái)更多新的挑戰?!蓖跣〈ㄕf(shuō),“其中一個(gè)比較敏感的問(wèn)題是,在機器判斷越來(lái)越準確之后,公平定義的矛盾將更加突出。比如在金融貸款、商業(yè)保險等領(lǐng)域,如果對用戶(hù)進(jìn)行個(gè)人畫(huà)像并作出判斷后,拒絕向該用戶(hù)提供服務(wù),如此是否公平?此外,隨著(zhù)AI技術(shù)進(jìn)步帶來(lái)的資源極大繁榮,很容易產(chǎn)生‘馬太效應’,導致資源集中在金字塔尖上,拉大社會(huì )差距。這是人類(lèi)歷史上不斷出現的問(wèn)題,值得警惕?!?/p>
對此,山世光強調:“作為AI從業(yè)者、開(kāi)發(fā)者、運營(yíng)者的我們,一定要意識到,我們所開(kāi)發(fā)的AI既可能被用來(lái)促進(jìn)社會(huì )公平和消除歧視,也有可能被濫用,甚至助紂為虐?!?/p>
那么,人類(lèi)應該如何揮舞這柄“雙刃劍”,讓它向善而不作惡呢?山世光說(shuō):“問(wèn)題的最終解決不僅僅依賴(lài)技術(shù)的進(jìn)步,更依賴(lài)于技術(shù)專(zhuān)家和社會(huì )學(xué)家兩個(gè)群體的順暢溝通,深度對話(huà)?!?/p>
為了更公平的AI而奮斗
論壇上,專(zhuān)家們介紹了產(chǎn)業(yè)界、學(xué)術(shù)界、法律界等在A(yíng)I公平性上作出的種種努力。
“人們開(kāi)發(fā)了許多工具,包括分析數據集形態(tài)和質(zhì)量的工具,能讓開(kāi)發(fā)者、工程師清楚看到他們用于訓練的數據的特征分布,比如性別、年齡等,至少要滿(mǎn)足統計學(xué)意義上的合理分布,從而減少潛在的偏見(jiàn);還有分析算法模型的工具,可以對模型的公平性進(jìn)行評估,并作出相應糾偏和優(yōu)化;此外還有幫助開(kāi)發(fā)者對決定模型輸出的關(guān)鍵數據特征進(jìn)行探索的工具以及公平性約束條件下的算法訓練工具等?!比A為公司AI治理首席專(zhuān)家段小琴說(shuō)。
“AI公平性的一個(gè)重要方向是數據的可獲得性和可使用性?!睏顝娬f(shuō),他在論壇講座中強調了“聯(lián)邦學(xué)習”在抵抗數據“馬太效應”、促進(jìn)AI公平性方面的作用?!拔覀冄芯柯?lián)邦學(xué)習,一個(gè)更大的目標是實(shí)現‘數據可用不可見(jiàn)’,其特征是隱私保護、權益保障、缺陷保障以及確權,而確權和權益保障需要通過(guò)經(jīng)濟學(xué)來(lái)完成?!?/p>
申衛星則指出:“在這個(gè)問(wèn)題上,企業(yè)和技術(shù)的自律,要與以法律為代表的‘他律’相結合,未來(lái)相關(guān)領(lǐng)域的立法應該是三駕馬車(chē)——技術(shù)、法律和倫理并駕齊驅?zhuān)夹g(shù)是根本、法律是保障、倫理是社會(huì )基礎?!?/p>
他進(jìn)一步補充道:“就AI技術(shù)立法問(wèn)題而言,法律既要解決形式上的公平、機會(huì )上的公平和程序上的公平,還要實(shí)現形式公平和實(shí)質(zhì)公平的統一。個(gè)人建議,應在時(shí)機成熟的時(shí)候推出綜合立法。在這個(gè)過(guò)程中,既要考慮對個(gè)人數據的保護,也要考慮保護和創(chuàng )新之間如何形成平衡?!?/p>
來(lái)源:《中國科學(xué)報》