美國普林斯頓大學(xué)的約翰·霍普菲爾德(John J。 Hopfield)和加拿大多倫多大學(xué)的杰弗里·辛頓(Geoffrey E。 Hinton)美國普林斯頓大學(xué)的約翰·霍普菲爾德(John J。 Hopfield)和加拿大多倫多大學(xué)的杰弗里·辛頓(Geoffrey E。 Hinton)
當地時(shí)間10月8日,瑞典皇家科學(xué)院宣布,將2024年諾貝爾物理學(xué)獎授予美國普林斯頓大學(xué)的約翰·霍普菲爾德(John J。 Hopfield)和加拿大多倫多大學(xué)的杰弗里·辛頓(Geoffrey E。 Hinton),以表彰他們“為推動(dòng)利用人工神經(jīng)網(wǎng)絡(luò )進(jìn)行機器學(xué)習作出的基礎性發(fā)現和發(fā)明”。獲獎?wù)邔⒐蚕?100萬(wàn)瑞典克朗(約合745萬(wàn)元人民幣)獎金。
諾貝爾獎評獎委員會(huì )表示:“今年物理學(xué)獎得主取得的突破建立在物理科學(xué)的基礎上。他們?yōu)槲覀冋故玖艘环N全新的方式,讓我們能夠利用計算機來(lái)幫助和指導我們,應對社會(huì )面臨的許多挑戰?!?/p>
從20世紀80年代開(kāi)始,兩位獲獎?wù)呔驮谌斯ど窠?jīng)網(wǎng)絡(luò )方面開(kāi)展了重要工作。其中,霍普菲爾德是一名物理學(xué)家,提出了日后被稱(chēng)為“霍普菲爾德網(wǎng)絡(luò )”的一種新的神經(jīng)網(wǎng)絡(luò )模型,振奮了該領(lǐng)域的研究。
另一邊,辛頓的名聲或許更加響亮一些。他是卷積神經(jīng)網(wǎng)絡(luò )理論的領(lǐng)軍人物,也被視為由ChatGPT掀起的本輪AI技術(shù)躍進(jìn)背后的奠基性科學(xué)家,被譽(yù)為“AI教父”。
辛頓出生于1947年,經(jīng)歷了復雜的求學(xué)經(jīng)歷,隨后開(kāi)始潛心研究神經(jīng)網(wǎng)絡(luò )。他與其他兩位作者一同在1986年發(fā)表了一篇題為《通過(guò)反向傳播誤差來(lái)學(xué)習》(Learning representations by back-propagating errors)的論文。在這篇奠定了深度學(xué)習理論核心的論文中,三位科學(xué)家將反向傳播算法應用于多層神經(jīng)網(wǎng)絡(luò ),并且證明了這種方法對機器學(xué)習行之有效。
隨后,辛頓在卡內基梅隆大學(xué)任教五年,后來(lái)成為加拿大高等研究院的研究員,并進(jìn)入多倫多大學(xué)計算機科學(xué)系任教。辛頓在2013年加入谷歌。因其在深度學(xué)習方面的貢獻,他與約書(shū)亞·本希奧和楊立昆被一同稱(chēng)為“深度學(xué)習三巨頭”,三人在2018年被授予了圖靈獎。
2023年5月,辛頓從谷歌離職。自那以后,他持續公開(kāi)呼吁謹慎對待AI技術(shù),成為旨在引導AI系統、使其行為符合設計者利益和預期目標的“AI對齊派”的代表。目前,辛頓是英國皇家學(xué)會(huì )會(huì )士,也是美國國家工程學(xué)院和美國藝術(shù)與科學(xué)學(xué)院的外籍會(huì )員。
在數十年的研究生涯中,辛頓可以稱(chēng)得上是“桃李滿(mǎn)天下”。例如,在去年年末那場(chǎng)受到全球矚目的OpenAI“政變風(fēng)云”中,被猜測發(fā)現“超級智能”突破、試圖解雇公司CEO的OpenAI前首席科學(xué)家伊爾亞·蘇茨克韋(Ilya Sutskever)正是辛頓最得意的弟子之一。
今年5月,蘇茨克韋從OpenAI離職,并在一個(gè)月后宣布成立新公司SSI(Safe Superintelligence Inc,安全超級智能),表示新公司將致力于追求安全超級智能。
而在辛頓這邊,自從離開(kāi)谷歌后,他也在一向旗幟鮮明地宣揚“AI威脅論”。在去年離職后不久,辛頓便在X(原推特)平臺上發(fā)文表示,他離開(kāi)谷歌就是為了可以“公開(kāi)地談?wù)揂I的危險”。
隨后,辛頓在一場(chǎng)采訪(fǎng)中直言,他開(kāi)始對自己一生從事的工作感到有些后悔:“我用平常的借口來(lái)安慰自己:就算我沒(méi)做,別人也會(huì )做的。。。。。。很難想象,你能如何阻止壞人利用它(AI)來(lái)做壞事?!?/p>
今年3月,辛頓在接受外媒采訪(fǎng)時(shí)又一次詳細闡述了自己的觀(guān)點(diǎn)。他表示,自己在2023年4月與作為上司的谷歌首席科學(xué)家杰夫·迪恩(Jeff Dean)展開(kāi)過(guò)討論,稱(chēng)AI有可能帶來(lái)事關(guān)人類(lèi)生存的危機;迪恩希望能挽留他留在谷歌研究AI的安全對策,但為了不受公司利益限制,辛頓還是選擇了離開(kāi)。
辛頓認為,AI的危險之處在于,其真的有可能采用對人類(lèi)有害的手段來(lái)實(shí)現被設定的目標,并且AI之間還可能會(huì )在未來(lái)出現競爭關(guān)系:“面對通過(guò)競爭變得更聰明的AI,我們人類(lèi)將會(huì )落后。很多人主張,要防止AI失控,只要關(guān)掉電源開(kāi)關(guān)即可。但超越人類(lèi)智慧的AI可以用語(yǔ)言操縱我們,或許會(huì )試圖說(shuō)服我們不要關(guān)掉開(kāi)關(guān)?!?/p>
在采訪(fǎng)中,辛頓還表達了對學(xué)生蘇茨克韋的支持,稱(chēng)從OpenAI的“政變”大戲中可以看出,比起安全性,組織往往會(huì )更重視AI創(chuàng )造的利益。
來(lái)源:《澎湃新聞》