導語(yǔ):從機器人和人工智能出現,人們對于飯碗的安全性就存在著(zhù)很大的擔憂(yōu),機器人和人工智能搶工作的話(huà)題也長(cháng)時(shí)間占據熱搜榜,但是,卻最終也沒(méi)得出準確的結論,到底哪些工作會(huì )被搶走。不過(guò),從今天
從機器人和人工智能出現,人們對于飯碗的安全性就存在著(zhù)很大的擔憂(yōu),機器人和人工智能搶工作的話(huà)題也長(cháng)時(shí)間占據熱搜榜,但是,卻最終也沒(méi)得出準確的結論,到底哪些工作會(huì )被搶走。不過(guò),從今天開(kāi)始,對于A(yíng)I會(huì )取代哪些人類(lèi)工作的猜測,也許可以暫時(shí)停一停了。
最近,兩位來(lái)自MIT和CMU的研究者在一篇論文中提出了一種預測那些“脆弱“工作的方式。他們認為,機器學(xué)習并不代表人類(lèi)工作的終結,但它會(huì )對經(jīng)濟和人類(lèi)工作的方式產(chǎn)生極大影響。
根據自己對于機器學(xué)習系統當下和未來(lái)能力的理解,這兩位研究者列出了8條主要標準,來(lái)評估一項任務(wù)是否適合機器學(xué)習。他們的文章發(fā)表在周四的《科學(xué)》上。
文章的共同作者之一、MIT斯隆管理學(xué)院教授Brynjolfsson在接受CNBC采訪(fǎng)時(shí)說(shuō),高管們可以用這些標準來(lái)對自己機構內的任何一項工作進(jìn)行評估,而政策的制定者們同樣可以根據這些問(wèn)題來(lái)判斷哪些職業(yè)最容易受到自動(dòng)化影響。CMU計算機科學(xué)教授Tom Mitchell是另一位作者。
“整個(gè)工作都適合或不適合機器學(xué)習的情況非常少見(jiàn),但在某種工作之中,或許有幾項任務(wù)是適合的?!?Brynjolfsson說(shuō)。論文的主要前提之一就是,我們離所謂“通用人工智能”還差得很遠,機器不能把人類(lèi)能干的所有事都辦了。
Brynjolfsson還說(shuō),老板們將要面臨的挑戰是,如何將那些工作“解綁”,依據是否能被自動(dòng)化將它們進(jìn)行歸類(lèi),然后“重新綁定”成全新的工作。
這些問(wèn)題中列出的條件,包括“不需要復雜、抽象推理的任務(wù)”、“不需要與人類(lèi)進(jìn)行細致、廣泛對話(huà)式交互的任務(wù)”、“為了完成任務(wù)不需要長(cháng)期計劃”等等。使用者根據這些條件來(lái)判斷符合或不符合的程度,最后加在一起算總分。
那么,究竟哪些任務(wù)最適合由機器完成?主要看這些因素:
標記了界定明確的輸入和輸出,能學(xué)習函數將其對應起來(lái)的任務(wù)
這些任務(wù)包括分類(lèi)(比如標記狗的品種或根據可能的癌癥種類(lèi)標記醫療記錄)和預測(分析一份貸款申請來(lái)預測未來(lái)的違約可能性)。不過(guò)機器在這里學(xué)會(huì )的只是一種統計學(xué)關(guān)聯(lián),而未必是因果關(guān)系。
存在大型數據集,或可以創(chuàng )建包含輸入-輸出對的大型數據集的任務(wù)
可獲取的訓練樣本越多,學(xué)習結果就越精確。DNN有一個(gè)值得注意的特性,在很多領(lǐng)域里,它的性能并不會(huì )隨著(zhù)訓練樣本數量的增加而逼近完美。能在訓練數據中抓出所有相關(guān)的輸入特征尤為重要。雖然原則上任何任意函數都能用DNN來(lái)表示,但電腦應付不好兩樣東西:一是訓練數據中模擬的、持續的多余偏見(jiàn),二是會(huì )忽略包含了機器觀(guān)測不到變量的規律。不過(guò),還有不少創(chuàng )造數據的方法,比如監測已有過(guò)程和交互行為、雇傭人類(lèi)來(lái)對部分數據進(jìn)行明確標注或是創(chuàng )建一個(gè)完整的全新數據集,或是模擬問(wèn)題相關(guān)的場(chǎng)景。
有著(zhù)明確的目標和度量標準、提供清晰反饋的任務(wù)
當我們可以明確地描述目標時(shí)——即便我們未必能確定達成目標的最佳過(guò)程——機器學(xué)習能做得非常不錯。這與早期達成自動(dòng)化的途徑形成了鮮明對比。抓取個(gè)人輸入-輸出決策的能力(即便模仿這些個(gè)人的學(xué)習過(guò)程被允許)可能不會(huì )導致最佳的全系統表現,因為人類(lèi)本身就會(huì )做出不完美的決策。因而,有明確界定的全系統表現(比如優(yōu)化全城范圍內而不是某個(gè)交叉路口的交通流量)度量標準就為機器學(xué)習系統提供了黃金準則。當訓練數據是根據這種黃金準則來(lái)進(jìn)行標注并以此確定目標時(shí),機器學(xué)習的威力特別大。
不需要依靠廣泛背景知識或常識的長(cháng)邏輯鏈或推理過(guò)程的任務(wù)
在學(xué)習數據中的經(jīng)驗性聯(lián)系時(shí),機器學(xué)習系統非常強大;但當任務(wù)需要依賴(lài)于常識或背景知識的長(cháng)推理鏈條或復雜計劃時(shí),它就變得不那么好使。吳恩達的“一秒鐘原則”表明,機器學(xué)習在需要快速反應和提供即時(shí)反饋的電子游戲上做得非常好,但在需要依靠對于世界的背景知識、以及對于久遠事件的記憶來(lái)做出最優(yōu)選擇的游戲上就做得沒(méi)那么好。
此類(lèi)事件的例外是圍棋和國際象棋,因為這些智力性游戲可以以完美的準確度快速模擬,數百萬(wàn)完美自標注的訓練樣本可以被自動(dòng)采集。然而,在真實(shí)世界的大多數領(lǐng)域,完美的模擬太少了。
不需要對于決策過(guò)程進(jìn)行細致解釋的任務(wù)
數億數值權重與它們的人工神經(jīng)元相連,大型神經(jīng)網(wǎng)絡(luò )根據它們進(jìn)行細微調整來(lái)學(xué)習決策。要對人類(lèi)解釋這種決策的原因會(huì )十分困難,因為DNN通常不會(huì )像人類(lèi)一樣使用中間抽象過(guò)程。雖然對于可自主解釋AI系統的研究工作正在進(jìn)行中,但現在這一領(lǐng)域的系統在這方面做得依然比較差。
舉個(gè)例子,雖然計算機在診斷癌癥或肺炎種類(lèi)上可以比人類(lèi)專(zhuān)家做得更好,與人類(lèi)醫生相比,它們解釋得出診斷結果原因的能力要差得多。而對于很多可感知的任務(wù),人類(lèi)則并不善于解釋?zhuān)热?,他們如何從?tīng)到的聲音中識別出詞語(yǔ)。
能夠容忍錯誤、不需要可證實(shí)的正確度或最優(yōu)解決方案的任務(wù)
幾乎所有的機器學(xué)習算法都是從統計學(xué)和概率上得出解決方案的。因而,要把它們訓練到百分之百的準確度幾乎不可能。即使是最好的語(yǔ)音識別、物體識別和疾病診斷系統也會(huì )犯錯誤。對于錯誤的容忍度是一條非常重要的標準。
不會(huì )隨時(shí)間迅速變化的任務(wù)
一般而言,機器學(xué)習算法只會(huì )在未來(lái)的測試樣本分布于訓練樣本分布近似時(shí)才會(huì )干得漂亮。如果這些分布發(fā)生變化,再訓練就不可避免,因而,相對于新訓練數據的獲取率,最終的成功更依賴(lài)于變化率(比如,垃圾郵件過(guò)濾器在過(guò)濾商業(yè)垃圾郵件上做得很好,部分是因為收到新郵件的比率要高于垃圾郵件變化的比率)。
不需要專(zhuān)業(yè)的靈巧、運動(dòng)技能或機動(dòng)性的任務(wù)
與人類(lèi)相比,在非結構化環(huán)境和任務(wù)中處理體力操作上,機器人仍然十分笨拙。這其實(shí)大部分不是機器學(xué)習的問(wèn)題,而是最新機器人機械化控制器的成果。
在機器學(xué)習將會(huì )如何影響勞動(dòng)和工資方面,這篇論文同樣考慮了其中經(jīng)濟因素的潛在影響。比如,在一些案例中,計算機將會(huì )取代人類(lèi)。
在一些任務(wù)上,自動(dòng)化的價(jià)格可能會(huì )降低,這可能會(huì )影響需求、雇傭和總投入。
作者指出機器學(xué)習的影響可能會(huì )超過(guò)一些之前已經(jīng)被廣泛應用的發(fā)明,比如電力和內燃機。這些進(jìn)步提高了總生產(chǎn)力,解放了互補性創(chuàng )新的浪潮。
“進(jìn)行了正確互補性投入(如技能、資源和基礎設施)的個(gè)人、商業(yè)和社會(huì )最終將會(huì )繁榮起來(lái)?!弊髡邔?xiě)道,“而其他人不只失去了分一杯羹的機會(huì ),在某些情況下,他們還會(huì )過(guò)得越來(lái)越糟?!?/p>
摘自 機器人網(wǎng)