• <blockquote id="fficu"><optgroup id="fficu"></optgroup></blockquote>

    <table id="fficu"></table>

    <sup id="fficu"></sup>
    <output id="fficu"></output>
    1. ACS880-07C
      關(guān)注中國自動(dòng)化產(chǎn)業(yè)發(fā)展的先行者!
      橫河電機-23年10月11日
      2024
      工業(yè)智能邊緣計算2024年會(huì )
      2024中國自動(dòng)化產(chǎn)業(yè)年會(huì )
      2023年工業(yè)安全大會(huì )
      OICT公益講堂
      當前位置:首頁(yè) >> 資訊 >> 行業(yè)資訊

      資訊頻道

      糾“三觀(guān)”關(guān)于人工智能技術(shù)的11種謬誤
      • 點(diǎn)擊數:929     發(fā)布時(shí)間:2015-10-18 09:24:00
      • 分享到:
      關(guān)鍵詞:

      新聞?wù)航酉聛?lái)我們就看到了“機器人殺人”這樣的新聞標題,以及這些文章對科技名人“人工智能威脅論”的引用,比如霍金的“人工智能會(huì )導致人類(lèi)滅絕?!?  真正的人工智能的出現,或許超越常人的庸俗想象。它在出現之后,就會(huì )自我優(yōu)化,自我擴張,提升智能,直到計算能力也就是其智力超越人類(lèi)幾千萬(wàn)倍。隨著(zhù)人工智能越來(lái)越近,人們對人工智能的渴求也愈加狂熱,從而產(chǎn)生了一些遍地開(kāi)花的謬誤。

      1、我們造出了像人腦一樣的計算機

      今天大小科技公司都在談人工智能,而神經(jīng)網(wǎng)絡(luò )計算則是說(shuō)明自己技術(shù)前沿的最佳例證。當它的原理被市場(chǎng)部們幾經(jīng)簡(jiǎn)化之后,已經(jīng)變成“像人腦神經(jīng)網(wǎng)絡(luò )一樣工作”。

      但是1980年就已經(jīng)出現的神經(jīng)網(wǎng)絡(luò )計算和人腦只有極為模糊的聯(lián)系。一個(gè)大問(wèn)題是科學(xué)家目前根本不知道人腦里那張由無(wú)數神經(jīng)元突觸組成的網(wǎng)絡(luò )究竟是怎么“計算”的。正如伯克利大學(xué)人工智能與機器學(xué)習專(zhuān)家邁克爾?喬丹(MichaelI.Jordan)所說(shuō)的:

      “我們完全不知道大腦是怎樣存儲信息和運作的,這里頭的規則是什么?是什么算法?因此我們現在還不能說(shuō)用大腦的理論去指導人工智能系統?!?/p>

      2、它通過(guò)了圖靈測試,所以它有智力

      你一定還有印象,2014年出現過(guò)這樣的新聞標題:“俄羅斯團隊開(kāi)發(fā)人工智能機器人,首次通過(guò)圖靈測試?!边@臺名為Eugene Goostman的計算機被描述為“把自己偽裝成十三歲的男孩,騙過(guò)了超過(guò)30%的評測人員?!?/p>

      計算機科學(xué)之父艾倫?圖靈在1950年首次提出了這個(gè)關(guān)于機器人是否可以思考的著(zhù)名實(shí)驗:人類(lèi)測試員在不知情的情況下面對計算機,用文字和其交談,如果計算機成功欺騙了測試人員假裝成一個(gè)真實(shí)的人類(lèi),那么該計算機便被證實(shí)“會(huì )思考”。

      后來(lái)英國皇家學(xué)會(huì )將圖靈的標準具體化:在一系列時(shí)長(cháng)為5分鐘的鍵盤(pán)對話(huà)中,只要計算機被誤認為是人類(lèi)的比例超過(guò)30%,那么這臺計算機就被認為通過(guò)了圖靈測試。

      一年一度的LoebnerPrize比賽便以此標準,這個(gè)大賽也早就出現了“通過(guò)測試”的機器人,比如2011年的Cleverbot程序達到59%的通過(guò)率。

      Eugene Goostman的批評者認為,這個(gè)所謂機器人就是單純地為了通過(guò)這個(gè)5分鐘測試而設計的,編寫(xiě)者還頗有心機地把它設定成一個(gè)13歲的非英語(yǔ)母語(yǔ)的小孩,以便在很多問(wèn)題無(wú)法回答或者出現錯誤的時(shí)候,讓裁判誤以為這是因為他年齡小而產(chǎn)生的語(yǔ)無(wú)倫次。也就是說(shuō),Goostman既不是“第一個(gè)通過(guò)測試”的程序,也不是一臺人工智能機器人。

      話(huà)說(shuō),想讓計算機蒙混過(guò)關(guān)并不復雜,這里還有10個(gè)伎倆,有興趣的話(huà)可以看看。

      3、這個(gè)機器人的智力已經(jīng)接近XX歲的兒童

      “百度內部有個(gè)‘百度大腦’的項目,用技術(shù)模擬人腦思維,現在大約已經(jīng)相當于2-3歲孩子的智力水平。未來(lái)十幾二十年,這樣的大腦或許比人腦還要聰明?!边@話(huà)出自百度CEO李彥宏。

      給人工智能程序定義年齡的還有不少,比如伊利諾大學(xué)芝加哥分校的研究者,他們對一臺計算機做了IQ測試,最終的結果是機器人的“智力”已經(jīng)接近4歲的人類(lèi)兒童。而微軟小冰的營(yíng)銷(xiāo)文案中,這個(gè)語(yǔ)音助理被定義為“一個(gè)17歲的萌妹子”。

      瑞典的科學(xué)家在2012年開(kāi)發(fā)了一個(gè)據稱(chēng)智商達到150的人工智能程序,媒體的報道稱(chēng)它“擊敗96%的人類(lèi)”。

      但如果這些科技公司能拋開(kāi)營(yíng)銷(xiāo)的廢話(huà),誠實(shí)地談?wù)撟约旱娜斯ぶ悄??!斑@個(gè)機器人的智力相當于5歲的智力受挑戰的兒童”可能是比較好的說(shuō)法。

      首先,智力測試本身就存在爭議。智力由三種能力組成:短期記憶力、推理能力和語(yǔ)言能力。三個(gè)變量相互作用,也許你會(huì )在推理方面天賦秉異,但記憶力并不好。一套由11個(gè)項目組成的考試題并不能全面反映智力的水平。

      上面提到的Jeff Hawkins說(shuō),人類(lèi)的大腦能學(xué)習幾乎所有東西,比如兩三歲的孩子已經(jīng)能夠掌握至少一門(mén)的語(yǔ)言、能從極其復雜的環(huán)境中一眼認出父母,不管他們的站姿和表情。人工智能相距甚遠,更不用說(shuō)搞清楚“智力”這種玄乎的東西了。

      4、算法正在控制一切

      “通過(guò)算法,我們可以比人做出更好的選擇”,每隔幾年,這樣的論調都會(huì )重復一次。2005年創(chuàng )立、用機器聚合科技網(wǎng)站新聞的Techmeme使用了算法自動(dòng)抓取互聯(lián)網(wǎng)上的新聞內容。但事情在這幾年發(fā)生了些變化。

      2008年,Techmeme招聘了前《連線(xiàn)》雜志的科技記者M(jìn)egan McCarthy,她的任務(wù)是對計算機挑選的新聞進(jìn)行人工干預。Techmeme創(chuàng )始人Gabe Rivera說(shuō),純算法推送的內容存在問(wèn)題,比如質(zhì)量參差不齊以及推送時(shí)機不對。理想的新聞聚合網(wǎng)站是采用“自動(dòng) 人工”混合模式,這能夠更有效地處理新聞,彌補人或計算機的不足。

      現在,Techmem維持著(zhù)一個(gè)9人的編輯團,用人工進(jìn)一步挑選新聞。

      另一個(gè)出現逆轉的是智能助手,以Siri為代表的智能助手描繪了這樣一個(gè)未來(lái):你對著(zhù)麥克風(fēng)說(shuō)一句話(huà),人工智能便幫你打理好一切,不管那是訂餐、找電影票還是看球賽結果。但國內外新近出現的助手式生活服務(wù)為了保證準確率,已經(jīng)基本轉向人工處理。甚至Facebook新推出的FacebookM也是人工幫助處理請求,機器學(xué)習人的工作方式。

      至少相當長(cháng)的一段時(shí)間,算法與人工還是相互輔助的關(guān)系。

      5、這臺機器人已經(jīng)學(xué)會(huì )自我繁殖

      最近劍橋大學(xué)的實(shí)驗室里就誕生了一臺被媒體冠以“會(huì )生孩子”名頭的機器人,它的“母體”是一只機械手臂,“嬰兒”則是一個(gè)個(gè)3D打印的藍色小立方塊,每個(gè)方塊內有一個(gè)獨立的電動(dòng)馬達。

      關(guān)于機器人繁殖的腦洞,現代計算機之父馮諾依曼曾指出:任何能夠自我繁殖的系統應該同時(shí)具有兩個(gè)基本功能:它必須能夠構建某一個(gè)元素,并且用這些元素組裝和自己一樣的下一代;它必須能夠把對自身的描述傳遞給下一代。這么來(lái)看,這臺所謂“會(huì )生孩子”的機器人并不符合“繁殖”的定義。

      就算哪天會(huì )有能像病毒一樣傳播的人工智能,它的影響也非常有限,因為能毀滅人類(lèi)的計算機需要實(shí)體,人工智能專(zhuān)家、OnIntelligence一書(shū)的作者JeffHawkins就說(shuō)過(guò):“你能想象它(人工智能)自己組建一個(gè)工廠(chǎng)然后不停地生孩子嗎?”

      6、終結者來(lái)臨,機器人都會(huì )殺人了

      今年7月,德國大眾汽車(chē)的一家外包工廠(chǎng)里用作流水線(xiàn)組裝的機器人成為了眾矢之的:在作業(yè)中,這臺機器手臂突然抓住一名人類(lèi)工人,后者被重重地壓在金屬板上導致胸部受重傷,繼而死亡。

      接下來(lái)我們就看到了“機器人殺人”這樣的新聞標題,以及這些文章對科技名人“人工智能威脅論”的引用,比如霍金的“人工智能會(huì )導致人類(lèi)滅絕?!?、馬斯克的“人工智能的危險性高于核武器?!?/p>

      不過(guò)具體到大眾的“終結者”,事情其實(shí)和車(chē)禍沒(méi)什么區別。大眾汽車(chē)證實(shí),這起事故來(lái)自“人為操作失誤”,殺人的“機器人”雖然可以經(jīng)過(guò)編程自主完成動(dòng)作,但它和“人工智能”還差了十萬(wàn)八千里。

      第一起記錄在案的工廠(chǎng)機器人致死事件發(fā)生在1979年福特的美國工廠(chǎng)。自此這類(lèi)事件平均每年發(fā)生不到一起──比起車(chē)禍來(lái)基本不值一提。

      7、人工智能的外形,一定要像人

      日本有位知名的人工智能專(zhuān)家石黑浩,他做的事情就是把機器人造的十分接近人類(lèi),他甚至喪心病狂地復制了一個(gè)自己。

      我們常?;孟胫?zhù)有一個(gè)和我們人類(lèi)一模一樣的機器伴侶,但別指望他(她)會(huì )幫你做家務(wù),因為在那之前你已經(jīng)被嚇壞了。根據“恐怖谷”理論,機器人如果真能達到100%的和人類(lèi)相似,人類(lèi)的反應是積極而正面的,但在此之前“像又不是很像”的階段,比如石黑浩的機器人,反而會(huì )讓人感覺(jué)見(jiàn)到行尸走肉一樣恐怖。

      是不是覺(jué)得圓滾滾的掃地機器人溫暖又可愛(ài)呢?

      8、機器人會(huì )遵循阿西莫夫的三定律

      科幻小說(shuō)家阿西莫夫在1942提出了著(zhù)名的“機器人三定律”:機器人不得傷害人類(lèi),或因不作為使人類(lèi)受到傷害;除非違背第一法則,機器人必須服從人類(lèi)的命令;在不違背第一及第二法則下,機器人必須保護自己。

      盡管科幻小說(shuō)愛(ài)好者都將它當成未來(lái)的基本規律。但事實(shí)上,讓機器決定人的生死并不是異端。在全球已經(jīng)有超過(guò)30個(gè)國家配備了“致命性自主武器系統”,未來(lái)戰爭的一些區域有可能是人工智能在一些區域自助決定是否射殺屏幕上出現的運動(dòng)物體。

      從軍隊角度,人工智能決定生死有諸多好處,比如它會(huì )堅決地執行任務(wù),并且殺人的機器不會(huì )有負罪感。完全由人工智能決定生死意味著(zhù)不再需要無(wú)人機操作員扣下扳機。白天在弗吉尼亞的封閉樓宇里遠程操控無(wú)人機,晚上和家人一起吃飯看到誤炸新聞并不是一份輕松的工作。

      人工智能決定生死毫無(wú)疑問(wèn)會(huì )引起許多爭議。2013年5月,由它引發(fā)的道義、倫理、人權問(wèn)題首次被提到聯(lián)合國人權理事會(huì )。但這并不是一場(chǎng)一邊倒的爭論,阿西莫夫的三定律不一定是我們將會(huì )面對的未來(lái)。

      9、我的人工智能可以……因為它會(huì )深度學(xué)習

      大約從Google收購DeepMind開(kāi)始,深度學(xué)習就成了每個(gè)和人工智能沾邊的創(chuàng )業(yè)公司掛在嘴邊的神器。似乎只要有了據說(shuō)“像大腦一樣學(xué)習”的“深度學(xué)習”,你的手機就一定能在嘈雜的環(huán)境下聽(tīng)懂你說(shuō)的每個(gè)詞并帶著(zhù)語(yǔ)氣翻譯出來(lái);就一定能認出眼前那位姑娘穿的衣服,并在淘寶上找到同款。

      “深度學(xué)習”在創(chuàng )業(yè)公司的宣傳語(yǔ)中已經(jīng)快變成半個(gè)世紀前無(wú)所不能的“社會(huì )主義”。

      有超過(guò)30年人工智能研究經(jīng)驗的學(xué)者,facebook人工智能總監YannLeCun這么解釋深度學(xué)習:創(chuàng )造學(xué)習機器,用同一種方法訓練它學(xué)習一切。

      作為一個(gè)訓練系統,海量的訓練依然是基礎,這是許多創(chuàng )業(yè)公司沒(méi)能做好的。

      并且即便有海量的訓練,原先的限制依然存在。當Google經(jīng)過(guò)海量訓練,用深度學(xué)習讓機器認出貓的時(shí)候,機器只能在貓正臉朝著(zhù)鏡頭的時(shí)候確保認出它。

      “把人工智能比作大腦,是給它賦予了一圈神奇的光環(huán),這種描述是危險的,將導致天花亂墜的宣傳?!?/p>

      LeCun說(shuō)道:

      “這樣的描述能給投資機構、公眾、潛在客戶(hù)、創(chuàng )業(yè)公司和投資人帶來(lái)一個(gè)預期,讓他們相信我們正處在時(shí)代的前沿,相信我們正在打造一個(gè)像大腦一樣強大的系統。實(shí)際上我們距離這個(gè)目標還非常遠?!?/p>

      10、埋頭苦干幾個(gè)月,機器人就有自我意識了

      科幻電影中的人工智能總給人一種非常樂(lè )觀(guān)的印象:開(kāi)發(fā)出一個(gè)有模有樣的機器人非常簡(jiǎn)單。

      比如在《超能查派》中,主角機器人在一個(gè)類(lèi)似車(chē)庫的雜物間里被改裝,從誕生起它就可以快速的自我學(xué)習,沒(méi)幾天就長(cháng)成了成年人?!朵撹F俠》系列中有著(zhù)英式口音的超級人工智能管家JARVIS出自TonyStark那間浮夸的實(shí)驗室?!冻烋斂汀防?,Johnny Depp飾演的科學(xué)家能輕松地在自己家里上傳意識,繼而成為了不死的虛擬人。

      別以為現實(shí)里的科學(xué)家都這么厲害。Artificial Intelligence:AModern Approach的作者、加州大學(xué)的StuartRussell教授說(shuō),單槍匹馬、閉門(mén)造車(chē)地開(kāi)發(fā)人工智能機器人實(shí)在太不現實(shí)了,這樣的工作往往需要一個(gè)科學(xué)家團隊,成果的出現也必然是長(cháng)久和緩慢的過(guò)程。

      關(guān)于上傳意識,Russell教授直接說(shuō)這是“無(wú)稽之談”,因為人類(lèi)自己連“意識”到底是什么還說(shuō)不清楚呢。

      11、我們復制你的記憶,用人工智能技術(shù)讓你作為虛擬人永生

      一家數據分析和人工智能方向的創(chuàng )業(yè)公司說(shuō),他們能打造一個(gè)虛擬的你,模仿你的一切元和思維,這意味著(zhù)你的記憶會(huì )被永不磨滅地保留下來(lái),你將得到永生。

      先別做這么好的美夢(mèng),這家公司存下來(lái)的只是社交網(wǎng)絡(luò )、郵件之類(lèi)的數據而已,現在沒(méi)有任何辦法移植記憶。原因挺簡(jiǎn)單,沒(méi)人知道大腦究竟怎么存儲記憶。事實(shí)上,就連記憶存在大腦的什么地方都是未解之謎,更別提什么保存記憶了。

      或者讓我們更(笨拙地)哲學(xué)一點(diǎn),到底什么才算是“記憶”?你記得的那些,還是你認為你記得的那些?

      摘自 物聯(lián)世界


      熱點(diǎn)新聞

      推薦產(chǎn)品

      x
      • 在線(xiàn)反饋
      1.我有以下需求:



      2.詳細的需求:
      姓名:
      單位:
      電話(huà):
      郵件:
      欧美精品欧美人与动人物牲交_日韩乱码人妻无码中文_国产私拍大尺度在线视频_亚洲男人综合久久综合天

    2. <blockquote id="fficu"><optgroup id="fficu"></optgroup></blockquote>

      <table id="fficu"></table>

      <sup id="fficu"></sup>
      <output id="fficu"></output>