• <blockquote id="fficu"><optgroup id="fficu"></optgroup></blockquote>

    <table id="fficu"></table>

    <sup id="fficu"></sup>
    <output id="fficu"></output>
    1. ABB
      關(guān)注中國自動(dòng)化產(chǎn)業(yè)發(fā)展的先行者!
      CAIAC 2025
      2025工業(yè)安全大會(huì )
      OICT公益講堂
      當前位置:首頁(yè) >> 資訊 >> 行業(yè)資訊

      資訊頻道

      人工智能的“左右互搏術(shù)”
      • 點(diǎn)擊數:1103     發(fā)布時(shí)間:2021-11-03 20:53:41
      • 分享到:
      判別器的目的是正確區分真實(shí)數據和生成數據,從而最大化判別準確率;生成器則是盡可能逼近真實(shí)數據的潛在分布。二者需要不斷提高各自的判別能力和生成能力來(lái)取勝,從而實(shí)現目標優(yōu)化。

      金庸武俠小說(shuō)《射雕英雄傳》里,有這樣一段經(jīng)典場(chǎng)景:“老頑童”周伯通在被困桃花島期間,創(chuàng )造了“左右互搏術(shù)”,即用自己的左手跟自己的右手打架,在兩手互搏中提高功力。

      如今,這樣的橋段在人工智能領(lǐng)域真實(shí)上演。它,就是深度學(xué)習。

      “左右互搏術(shù)”與深度學(xué)習中的一種對抗訓練原理相仿,即有兩個(gè)角色——生成器和判別器。生成器類(lèi)似于左手,扮演攻方;判別器類(lèi)似于右手,扮演守方。

      判別器的目的是正確區分真實(shí)數據和生成數據,從而最大化判別準確率;生成器則是盡可能逼近真實(shí)數據的潛在分布。二者需要不斷提高各自的判別能力和生成能力來(lái)取勝,從而實(shí)現目標優(yōu)化。

      今天,讓我們打開(kāi)這個(gè)“神秘魔盒”。

      深度學(xué)習的概念,最早是由杰弗里·辛頓在2006年提出的。這是一門(mén)用于學(xué)習和利用“深度”人工神經(jīng)網(wǎng)絡(luò )的機器學(xué)習技術(shù)。作為人工智能領(lǐng)域中最熱的研究方向,深度學(xué)習迅速受到學(xué)術(shù)界和工業(yè)界的關(guān)注。

      目前,深度學(xué)習已得到廣泛應用。如在博弈領(lǐng)域,AlphaGo通過(guò)深度學(xué)習,以4∶1的比分戰勝韓國棋手李世石,成為第一個(gè)擊敗人類(lèi)職業(yè)圍棋選手的電腦程序;在醫學(xué)影像識別中,以深度學(xué)習為核心技術(shù)的X光、核磁、CT、超聲等醫療影像多模態(tài)大數據的分析技術(shù),可提取二維或三維醫療影像中隱含的疾病特征;在圖像處理中,最成功的領(lǐng)域是計算機視覺(jué),如圖像風(fēng)格遷移、圖像修復、圖像上色、人臉圖像編輯以及視頻生成等。

      一種特殊的機器學(xué)習方法

      今天的人工智能,其實(shí)是把現實(shí)生活中的問(wèn)題量化成了可計算的問(wèn)題,然后用計算機算出來(lái)。數學(xué)模型則架起了中間的橋梁。

      現實(shí)生活中,很多問(wèn)題都可以通過(guò)建模解決。比如計算遠程火炮彈道問(wèn)題,計算日食、月食出現的時(shí)間和地點(diǎn)等。我們只要把相應公式用計算機語(yǔ)言寫(xiě)一遍,再代入參數,就能計算出來(lái)。

      然而,更多問(wèn)題的解決方法是不確定的。即使我們找到了相應的數學(xué)模型,也不知道應該代入什么參數。比如語(yǔ)音識別、人臉識別和機器翻譯等。因此,我們需要讓計算機通過(guò)自主學(xué)習,從大量數據中得到相應參數。這個(gè)過(guò)程,就是機器學(xué)習。

      機器學(xué)習旨在發(fā)現數據存在和利用的模式,并用它們進(jìn)行學(xué)習及做出預測。機器學(xué)習的過(guò)程,就是用計算機算法不斷地優(yōu)化模型,讓它越來(lái)越接近真實(shí)情況的過(guò)程。它與人類(lèi)學(xué)習的道理如出一轍。

      考察人的學(xué)習通常方式是考試,如果分數不及格,就需要進(jìn)一步學(xué)習。機器學(xué)習也要這樣來(lái)衡量,它的目標用專(zhuān)業(yè)術(shù)語(yǔ)來(lái)說(shuō),就是“期望值最大化”。

      機器學(xué)習的效果取決于兩個(gè)方面:一方面是學(xué)習的深度。機器學(xué)習并不能“一口吃成個(gè)胖子”,它的訓練算法需要迭代執行。這如同人在學(xué)習時(shí)要通過(guò)復習來(lái)“溫故而知新”一樣。機器學(xué)習迭代的次數越多,即學(xué)習得越深入,得到的數學(xué)模型效果越好。另一方面是數據的質(zhì)與量。正如我們做大量?jì)?yōu)質(zhì)習題,成績(jì)就會(huì )提高。機器學(xué)習也是如此,訓練數據量越大,學(xué)習效果就會(huì )越好。

      根據數學(xué)模型的特點(diǎn),機器學(xué)習有兩種方法:一種是利用已知模型進(jìn)行訓練;另一種是在模型未知的情況下,設計一些簡(jiǎn)單通用的模型結構,然后使用大量的數據進(jìn)行訓練,訓練成什么樣就是什么樣。這便是我們常聽(tīng)到的人工智能“黑箱”問(wèn)題,即使訓練有效,也不清楚里面是什么。

      深度學(xué)習就是后一種機器學(xué)習的方法。人工智能涵蓋的領(lǐng)域十分廣泛,深度學(xué)習只是其中的一個(gè)分支,屬于機器學(xué)習的范疇。人工智能需要有“獨立思考”能力與機器學(xué)習技術(shù)的支持,深度學(xué)習便是幫助機器實(shí)現“獨立思考”的一種方式。

      深度學(xué)習迎來(lái)革命性突破

      人工神經(jīng)網(wǎng)絡(luò ),簡(jiǎn)稱(chēng)神經(jīng)網(wǎng)絡(luò ),是一種模仿動(dòng)物中樞神經(jīng)系統結構和功能的數學(xué)模型,是用大量簡(jiǎn)單處理單元經(jīng)廣泛連接而組成的人工網(wǎng)絡(luò )。它其實(shí)是一個(gè)特殊的分類(lèi)器,用于對函數進(jìn)行估計等。

      神經(jīng)網(wǎng)絡(luò )為許多問(wèn)題的研究提供了新思路,特別是迅速發(fā)展的深度學(xué)習,能發(fā)現高維數據中的復雜結構,取得比傳統機器學(xué)習更好的效果。

      20世紀50年代,人類(lèi)第一次設計出計算機能運行的神經(jīng)網(wǎng)絡(luò )算法。此時(shí)的神經(jīng)網(wǎng)絡(luò ),雖然給了人們很多遐想空間,卻解決不了實(shí)際問(wèn)題,因此被打入“冷宮”。

      到了20世紀80年代末期,人們提出反向傳播算法,可讓一個(gè)神經(jīng)網(wǎng)絡(luò )模型從大量樣本中學(xué)習統計規律,從而對未知事件做出預測。隨后,支持向量機等各種各樣的機器學(xué)習方法被相繼提出。不過(guò),這些模型的結構均為淺層學(xué)習方法,處理復雜問(wèn)題的能力受到一定制約。因此,神經(jīng)網(wǎng)絡(luò )再進(jìn)“冷宮”。

      2006年,加拿大教授辛頓和他的學(xué)生提出深度學(xué)習神經(jīng)網(wǎng)絡(luò )的“快速學(xué)習”算法,使深度學(xué)習迎來(lái)了革命性突破。深度學(xué)習通過(guò)學(xué)習一種深層非線(xiàn)性網(wǎng)絡(luò )結構,展現出了從少數樣本中集中學(xué)習數據及本質(zhì)特征的強大能力。

      從此,神經(jīng)網(wǎng)絡(luò )學(xué)會(huì )了反復分類(lèi)以及識別物體的方法,并展現出乎意料的精準度。

      計算能力成為推動(dòng)深度學(xué)習的利器

      人工神經(jīng)網(wǎng)絡(luò )在被提出的50年間,都沒(méi)能很好地解決智能問(wèn)題。究其原因,除了算法本身不完善外,還在于計算機絕對速度不夠快,而且單位計算能力的能耗太高,無(wú)法通過(guò)大量服務(wù)器搭建并行計算系統,來(lái)達成深度人工神經(jīng)網(wǎng)絡(luò )。

      那么,靠什么加以突破?答案就是摩爾定律。

      摩爾定律是英特爾聯(lián)合創(chuàng )始人戈登·摩爾在1965年提出的一項觀(guān)察結論,即計算機的總體處理能力大約每2年就會(huì )翻一番。經(jīng)歷近50年的歷史檢驗,摩爾定律展現出驚人的準確性。摩爾定律帶來(lái)的結果是,在過(guò)去的半個(gè)多世紀里,計算機處理器性能增長(cháng)了上億倍,耗電量卻降到了百分之一。

      從能量角度看,摩爾定律反映出了人類(lèi)在單位能耗下,所能完成信息處理能力的大幅提升。而這正是實(shí)現人工智能的基礎所在。

      從某種意義上說(shuō),不僅是深度學(xué)習技術(shù),今天的人工智能都是靠算力成就的。

      人工智能的崛起,有3個(gè)技術(shù)要素:一是它解決了可計算問(wèn)題,即在算法上的突破;二是它積累了大量數據,形成了可學(xué)習的原材料;三是摩爾定律所推測的,處理能力得到持續提高。

      算力是推動(dòng)深度學(xué)習的利器。計算能力越強,同樣時(shí)間內積累的經(jīng)驗就越多、迭代速度也越快,深度學(xué)習的性能也就越高。

      不斷進(jìn)化的深度學(xué)習之道

      1997年,“深藍”在國際象棋比賽中戰勝加里·卡斯帕羅夫;2016年,AlphaGo在圍棋比賽中戰勝李世石。

      雖然這兩種人工智能系統都學(xué)會(huì )了下棋,但教授它們的方式以及它們如何比賽,則大相徑庭。

      “深藍”的核心評估函數對給定盤(pán)面進(jìn)行數字“排序”,而且函數是手工設計的。這種比賽風(fēng)格,實(shí)際上是一種“蠻力”?!吧钏{”將其評估函數應用到許多備選的未來(lái)狀態(tài),對每個(gè)棋手預先搜索七八步,以2億次/秒的速度進(jìn)行局面評估。

      AlphaGo的學(xué)習方法則迥然不同。它通過(guò)一種雙管齊下的深度學(xué)習方法“學(xué)習”,用“價(jià)值網(wǎng)絡(luò )”評估局面,用“策略網(wǎng)絡(luò )”選擇走棋。

      深度學(xué)習神經(jīng)網(wǎng)絡(luò )的訓練,一部分通過(guò)使用人類(lèi)高手對弈數據集的監督學(xué)習進(jìn)行(總出棋數約為3000萬(wàn)步),另一部分通過(guò)對自我對弈非監督強化學(xué)習進(jìn)行(模擬成千上萬(wàn)場(chǎng)隨機比賽)。它不使用預測搜索,走棋是單個(gè)“圍棋局面”整體評估的結果。

      2017年5月,在中國烏鎮圍棋峰會(huì )上,AlphaGo的升級版AlphaGo Zero,與世界排名第一的圍棋冠軍柯潔對戰,結果以3∶0的總比分完勝。

      令人震驚的是,AlphaGo Zero一開(kāi)始并沒(méi)接觸過(guò)人類(lèi)棋譜。它使用了新的強化學(xué)習方法,從單一神經(jīng)網(wǎng)絡(luò )開(kāi)始,通過(guò)神經(jīng)網(wǎng)絡(luò )強大的搜索算法,進(jìn)行自我對弈訓練。隨著(zhù)自我對弈次數的增加,神經(jīng)網(wǎng)絡(luò )逐漸調整,提升預測下一步的能力,最終成為具備超強棋力的“選手”。更為厲害的是,隨著(zhù)訓練的深入,AlphaGo Zero還獨立發(fā)現了游戲規則,走出了新策略,為圍棋這項古老游戲帶來(lái)了新見(jiàn)解。

      目前,深度學(xué)習在許多領(lǐng)域取得了技術(shù)性突破,并展示了極佳效果。然而,它仍存在一些局限:理論研究缺乏、無(wú)監督學(xué)習能力弱、缺少邏輯推理和記憶能力等。

      深度學(xué)習對未來(lái)社會(huì )發(fā)展具有重要意義,需要不斷深入研究,從多方向多角度更全面地開(kāi)發(fā)深度學(xué)習的潛在價(jià)值。面對復雜的戰場(chǎng),以深度學(xué)習為代表的人工智能技術(shù)也已逐步滲透到軍事領(lǐng)域,深刻影響著(zhù)人類(lèi)戰爭。

      可以推斷,未來(lái)作為“左右互搏術(shù)”的深度學(xué)習,必將繼續升級演化,開(kāi)啟更高深的境界。

      來(lái)源:《解放軍報》

      熱點(diǎn)新聞

      推薦產(chǎn)品

      x
      • 在線(xiàn)反饋
      1.我有以下需求:



      2.詳細的需求:
      姓名:
      單位:
      電話(huà):
      郵件:
      欧美精品欧美人与动人物牲交_日韩乱码人妻无码中文_国产私拍大尺度在线视频_亚洲男人综合久久综合天

    2. <blockquote id="fficu"><optgroup id="fficu"></optgroup></blockquote>

      <table id="fficu"></table>

      <sup id="fficu"></sup>
      <output id="fficu"></output>