近日,一封由13位OpenAI和谷歌DeepMind前員工、現員工簽署的公開(kāi)信引起廣泛關(guān)注。這封信對高級人工智能的潛在風(fēng)險以及當前缺乏對人工智能科技公司的監管表示擔憂(yōu)。
此外,在這封公開(kāi)信中提及了AI或許會(huì )加劇現有的不平等現象,操縱和傳播誤導信息,以及可能無(wú)法控制自主人工智能系統,最終可能威脅人類(lèi)生存。
為這封公開(kāi)信署名背書(shū)的有被譽(yù)為“人工智能教父”的杰弗里·辛頓(Geoffrey Hinton)、因開(kāi)創(chuàng )性AI研究獲得圖靈獎的約書(shū)亞·本吉奧(Yoshua Bengio)和AI安全領(lǐng)域的學(xué)者斯圖爾特·羅素(Stuart Russell)。
公開(kāi)信表示,人工智能技術(shù)有潛力為人類(lèi)帶來(lái)前所未有的福祉,同時(shí),這些技術(shù)會(huì )帶來(lái)嚴峻挑戰,全球的政府和其他AI專(zhuān)家以及AI公司本身都已經(jīng)意識到了這些風(fēng)險。然而,AI 公司出于財務(wù)利益的考慮,往往避免接受有效監管,“我們認為特別設計的企業(yè)治理模式不足以改變這一現狀”。
公開(kāi)信提到,AI公司掌握著(zhù)大量的內部信息,包括其系統的能力和局限性、保護措施的充分性,以及不同類(lèi)型傷害的風(fēng)險水平。然而,目前他們與政府分享這些信息的責任較為有限,而且沒(méi)有與民間社會(huì )分享的義務(wù)。
上述公司中,現任和前任員工是為數不多的能夠向公眾負責的人,然而,保密條款阻礙了這種憂(yōu)慮的表達。
公開(kāi)信提到,希望領(lǐng)先的AI 企業(yè)承諾遵循一些原則,包括承諾不會(huì )簽訂或執行任何禁止對公司的風(fēng)險相關(guān)擔憂(yōu)進(jìn)行負面評價(jià)或批評的協(xié)議,也不會(huì )因員工進(jìn)行風(fēng)險相關(guān)的批評而阻礙其既得經(jīng)濟利益做出報復。
聯(lián)名信希望建立一個(gè)可驗證的匿名機制,供現任和前任員工使用。
OpenAI 前員工丹尼爾·科泰洛 (Daniel Kokotajlo)是此次聯(lián)名信公開(kāi)署名人員中的一位。他在社交平臺發(fā)文表示,“我們中一些最近從 OpenAI 辭職的人聚集在一起,要求實(shí)驗室對透明度作出更廣泛的承諾?!苯衲?4 月,丹尼爾從 OpenAI 辭職,其中的一個(gè)原因就是對該公司在構建通用人工智能方面是否會(huì )采取負責任的行為失去了信心。
丹尼爾提到,AI系統不是普通的軟件,它們是從大量數據中學(xué)習的人工神經(jīng)網(wǎng)絡(luò )。關(guān)于可解釋性、對齊和控制的科學(xué)文獻正在迅速增多,但這些領(lǐng)域仍處于起步階段。雖然OpenAI 等實(shí)驗室正在構建的系統能夠帶來(lái)巨大的好處。但如果不小心,可能會(huì )在短期內造成不穩定,并在長(cháng)期內造成災難性后果。
丹尼爾表示,從OpenAI離開(kāi)時(shí),曾被要求簽署一份文件,其中包含一項不貶損條款,禁止他發(fā)表任何批評公司的話(huà)。丹尼爾拒絕簽署,并失去既得股權。
在丹尼爾加入 OpenAI 時(shí)曾希望隨著(zhù)AI功能越來(lái)越強大,內部在安全研究方面投入更多資金,但 OpenAI 從未做出這一轉變?!叭藗円庾R到這一點(diǎn)后開(kāi)始辭職,我不是第一個(gè)也不是最后一個(gè)辭職的人?!钡つ釥栒f(shuō)。
同一時(shí)間,OpenAI前超級對齊部門(mén)成員利奧波德·阿申布倫納(Leopold Aschenbrenner)也在公開(kāi)采訪(fǎng)中透露他被開(kāi)除的真實(shí)原因。他給幾位董事會(huì )成員分享了一份OpenAI安全備忘錄,結果導致OpenAI管理層不滿(mǎn)。利奧波德在社交平臺表示,到 2027 年實(shí)現 AGI 是極其有可能的,需要更嚴格的監管和更透明的機制,確保人工智能的安全發(fā)展。
本次公開(kāi)信事件是OpenAI近期面臨的諸多危機中的一個(gè)。
在OpenAI的GPT-4o模型發(fā)布不久后,OpenAI原首席科學(xué)家伊利亞·蘇茨克維(Ilya Sutskever)正式官宣離職。不久后,OpenAI超級對齊團隊聯(lián)合負責人楊·萊克(Jan Leike)也在推特上宣布離職。他稱(chēng)OpenAI領(lǐng)導層關(guān)于公司核心優(yōu)先事項的看法一直不合,超級對齊團隊過(guò)去幾個(gè)月一直在逆風(fēng)航行,在提升模型安全性的道路上受到公司內部的重重阻礙,“(OpenAI)安全文化和安全流程已經(jīng)讓位給閃亮的產(chǎn)品”。
來(lái)源:《第一財經(jīng)》