• <blockquote id="fficu"><optgroup id="fficu"></optgroup></blockquote>

    <table id="fficu"></table>

    <sup id="fficu"></sup>
    <output id="fficu"></output>
    1. ACS880-07C
      關(guān)注中國自動(dòng)化產(chǎn)業(yè)發(fā)展的先行者!
      橫河電機-23年10月11日
      2024
      工業(yè)智能邊緣計算2024年會(huì )
      2024中國自動(dòng)化產(chǎn)業(yè)年會(huì )
      2023年工業(yè)安全大會(huì )
      OICT公益講堂
      當前位置:首頁(yè) >> 資訊 >> 行業(yè)資訊

      資訊頻道

      人工智能:人造機器會(huì )不會(huì )超越人?
      • 作者:趙清建
      • 點(diǎn)擊數:988     發(fā)布時(shí)間:2016-04-18 13:19:00
      • 分享到:
      關(guān)鍵詞:

      永恒的恐懼

      對于人工智能的憂(yōu)慮,最早可以追溯到200年前。但這不是對一項技術(shù)的反思,而是展示了造物者與被造物之間的內在關(guān)系。

      “亞當”是英國19世紀女作家瑪麗?雪萊筆下作品《弗蘭肯斯坦》中的合成生命體,科學(xué)家弗蘭肯斯坦創(chuàng )造了他。亞當天性善良,渴望感情,渴望受到尊重,但世界并沒(méi)有像他所期待的那樣接納他,他始終是個(gè)異類(lèi)。

      于是,他被迫反抗,作出極端行為,脅迫弗蘭肯斯坦為他造一個(gè)“夏娃”。弗蘭肯斯坦擔心“亞當”和“夏娃”會(huì )衍生出無(wú)數新的怪物,在即將成功時(shí)將“夏娃”銷(xiāo)毀?!皝啴敗遍_(kāi)始了復仇殺戮,弗蘭肯斯坦只能與之決斗。

      《弗蘭肯斯坦》在多年以后,依然能夠成為英美文化的熱點(diǎn)。上海交通大學(xué)科學(xué)史與科學(xué)文化研究院院長(cháng)江曉原認為,這是源于人類(lèi)與被造物之間天然的永恒恐懼與不安?!皻v史證明,即便同是人類(lèi),異族之間想要獲得融合,也需付出巨大代價(jià)?!边@可以解釋為什么人類(lèi)與人工智能的實(shí)現越近,恐懼與不安會(huì )更深。

      不過(guò),科學(xué)家一向反對將人工智能過(guò)度擬人化,他們認為目前沒(méi)有確切證據證明它們在未來(lái)會(huì )帶來(lái)像作品中的災難性后果。

      倫理學(xué)家、哲學(xué)家則堅持對人工智能的憂(yōu)慮,至少可以理解為對科學(xué)技術(shù)的人文關(guān)懷。江曉原說(shuō):“要打消這個(gè)擔憂(yōu),就必須論證‘人工智能不會(huì )危害人類(lèi)’或者‘人工智能的危害是可控的’?!?/p>

      人造機器會(huì )不會(huì )超越人

      對于人工智能的警惕最初的焦點(diǎn)在于“人造的機器會(huì )超越人”。庫茲韋爾在《奇點(diǎn)臨近》中表示,一旦強人工智能實(shí)現,它可以很輕易地獲得提高,其能力也會(huì )增倍,這是機器能力的根本特質(zhì)。而這種自我強化的智能最終會(huì )超過(guò)人類(lèi)智能水平。

      世界通用人工智能學(xué)會(huì )副主席、《通用人工智能》雜志主編、美國天普大學(xué)計算機與信息科學(xué)系副教授王培認為,首先需要理清人工智能的概念。他告訴《中國科學(xué)報》記者,目前主流認知是,“人工智能”就是要在計算機上再現“全部的”人類(lèi)智力功能。

      雖然人們不斷嘗試設計和構建“思維機器”,但是往往都以失敗而告終。因此,科學(xué)家轉而研發(fā)只在某個(gè)特定問(wèn)題的解決上可以達到人類(lèi)水平的計算機系統。

      在王培看來(lái),這種研究方向的根本問(wèn)題是這類(lèi)系統的能力完全由人設計決定,系統本身基本上沒(méi)有適應性、靈活性和創(chuàng )造性。因此,這類(lèi)系統不是真正的智能。

      一種非主流認識是,“智能”代表著(zhù)某種理性原則,人類(lèi)的智能從來(lái)不是全知全能,但人類(lèi)總是能在任意環(huán)境中找到最優(yōu)解。因此,真正的智能的定義可以抽象為“在知識和資源相對不足的條件下的適應能力”。

      所謂“適應能力”是指,系統面臨的問(wèn)題是實(shí)時(shí)發(fā)生的,對系統作出反應的時(shí)間是有要求的;同時(shí),相對于所要解決的問(wèn)題來(lái)說(shuō),系統只有有限的信息加工能力,比如記憶的容量、計算的速度;其次,系統必須是開(kāi)放的,不對面臨的問(wèn)題內容加以限制。

      如此一來(lái),目前人們所了解的人工智能系統都不滿(mǎn)足這種能力。但王培認為,這才是更接近公眾心目中的人工智能觀(guān)念,是靈活的、有創(chuàng )造力的。

      這類(lèi)系統是一個(gè)自適應系統,元程序設計會(huì )賦予其自主應對問(wèn)題的能力,但是它所面臨的每一個(gè)問(wèn)題本身并沒(méi)有程序可以依靠,而是全憑自己在環(huán)境中學(xué)習和積累經(jīng)驗。

      “無(wú)論計算機技術(shù)如何發(fā)展,盡管真正的人工智能系統會(huì )在很多具體問(wèn)題的解決能力上超過(guò)人類(lèi),但由于它沒(méi)有生物屬性,沒(méi)有和人類(lèi)完全相同的經(jīng)驗,所以不會(huì )在所有方面超越人類(lèi)?!蓖跖啾硎?,未來(lái)的人工智能系統只是在某些方面和人具有可比性,而非整體超越人類(lèi)。那么,人與系統之間的關(guān)系也不可能等同于人與人之間的互動(dòng)水平。

      人工智能真的可控嗎

      人工智能不會(huì )全面超過(guò)人類(lèi)不意味著(zhù)它完全可控。就連庫茲韋爾也表示,失控的人工智能在邏輯上是完全可能的。

      王培承認,“智能”往往被當作褒義詞,但事實(shí)上,真正的智能在擁有靈活性和創(chuàng )造性的同時(shí),也可能是不穩定、不可靠的?!叭斯ぶ悄苣繕嗽谝欢ǔ潭壬峡梢哉f(shuō)就是減少人對計算機的控制和干預。因此,智能越高,失控的可能性在理論上就越大,風(fēng)險也就越大?!边@正好印證了倫理學(xué)家的擔憂(yōu)。我國著(zhù)名生命倫理學(xué)家邱仁宗表示,倫理學(xué)認為解決這個(gè)問(wèn)題的核心,是希望人工智能機器成為一個(gè)“人工道德行動(dòng)者”,使它們能考慮他人利益,甚至擁有利他主義傾向。

      美國機器智能研究院專(zhuān)門(mén)研究人工智能的安全發(fā)展,該機構奠基人尤德科夫斯基就曾提出了“友好人工智能”的概念,認為“友善”從設計伊始就應當被注入機器的智能系統中。但這個(gè)理論很容易被推翻?!耙粋€(gè)明顯的常識是:人類(lèi)無(wú)法避免自己的一部分后代學(xué)壞?!苯瓡栽f(shuō)。

      王培的看法是,一個(gè)智能系統的行為同時(shí)取決于其先天條件以及后天條件。對于系統設計本身,可以在某種程度上將人類(lèi)普世的道德標準編進(jìn)程序。但由于它擁有自適應能力,人類(lèi)無(wú)法預見(jiàn)其行為的所有后果。

      “人工智能的‘自主決策’仍是被它的經(jīng)驗所約束的,如果在其‘未成年’期對其輸入信息控制,以達到社會(huì )認可的動(dòng)機、知識、技能結構和水平,并在其成長(cháng)過(guò)程中進(jìn)行與機器相關(guān)的道德、法律等社會(huì )約束,通過(guò)終生教育和社會(huì )化過(guò)程,可以實(shí)現像對人一樣的管理?!?/p>

      他認為,這就是平衡自由和道德的手段,然而,這個(gè)平衡并不能事先保證。這也說(shuō)明人工智能一定能成為“人工道德行動(dòng)者”的證據是不明確的。

      預防還是行動(dòng)

      有一種觀(guān)點(diǎn)認為,在科技發(fā)展過(guò)程中,恐懼新技術(shù)的人都會(huì )振振有詞地說(shuō):到此處為止,不要再進(jìn)步。

      然而,由于“智能”天生就無(wú)法控制,在邱仁宗看來(lái),人工智能對人類(lèi)構成的威脅是一種“存在威脅”,即人類(lèi)存在本身都成為問(wèn)題,沒(méi)有一項其他科技可以與之對等。

      “真正帶有終極性質(zhì)的問(wèn)題是:我們究竟為什么需要人工智能?人工智能真的必不可少嗎?”江曉原認為,“沒(méi)有人工智能或者限制人工智能并不會(huì )影響人類(lèi)生存,它影響的是資本增值?!?/p>

      這也造成在該問(wèn)題上兩種截然不同的處理原則。預防原則要求,我們不能用試錯法來(lái)處理生存危機。如果一個(gè)行為的后果未知,但是根據科學(xué)家判斷有極小可能會(huì )帶來(lái)巨大的負面風(fēng)險,這一行為最好不要進(jìn)行;行動(dòng)派則認為,很明顯,這就要求科學(xué)家在戰略中要盡可能提高自信以對抗這種風(fēng)險。阻止新興技術(shù)帶來(lái)的好處,可能會(huì )增加災難性結果的可能性。

      盡管兩者無(wú)法達成一致,但人工智能研究是人類(lèi)幾千年來(lái)在意識層面上自我認識的努力的最新前沿,它將不會(huì )停止發(fā)展。

      “目前在這個(gè)領(lǐng)域的研究成果還沒(méi)有成熟到支持應用技術(shù)的程度。和所有科學(xué)領(lǐng)域一樣,把不成熟的研究成果投入實(shí)際應用是危險的,尤其是那些可能產(chǎn)生深遠影響的成果,因此它的倫理問(wèn)題很重要?!蓖跖嗵寡?,作為人工智能的研究者,隨時(shí)想著(zhù)自己研究工作的社會(huì )后果非常必要?!暗斯ぶ悄芗夹g(shù)的具體倫理規范應當隨著(zhù)科學(xué)研究的進(jìn)展而逐漸建立,而不可能在研究成果尚未成熟的條件下完善?!?/p>

      江曉原也表示,在必須發(fā)展該技術(shù)的前提下,我們應該抱著(zhù)慎之又慎的心態(tài)。雖然本質(zhì)上不存在能對抗強人工智能的絕對保護措施,大力增加在發(fā)展防御手段上的投入,包括道德標準、法律標準和防御技術(shù)本身都是非常必要的。

      此外,在他看來(lái),當這樣一項重大科技應用有可能引發(fā)倫理和社會(huì )問(wèn)題時(shí),應對方式應該是科學(xué)與人文、科學(xué)家與公眾之間展開(kāi)積極的對話(huà),而非單向的傳播和順從。(記者 胡珉琦)

      摘自 中國科學(xué)報


      熱點(diǎn)新聞

      推薦產(chǎn)品

      x
      • 在線(xiàn)反饋
      1.我有以下需求:



      2.詳細的需求:
      姓名:
      單位:
      電話(huà):
      郵件:
      欧美精品欧美人与动人物牲交_日韩乱码人妻无码中文_国产私拍大尺度在线视频_亚洲男人综合久久综合天

    2. <blockquote id="fficu"><optgroup id="fficu"></optgroup></blockquote>

      <table id="fficu"></table>

      <sup id="fficu"></sup>
      <output id="fficu"></output>