• <blockquote id="fficu"><optgroup id="fficu"></optgroup></blockquote>

    <table id="fficu"></table>

    <sup id="fficu"></sup>
    <output id="fficu"></output>
    1. ABB
      關(guān)注中國自動(dòng)化產(chǎn)業(yè)發(fā)展的先行者!
      CAIAC 2025
      2025工業(yè)安全大會(huì )
      OICT公益講堂
      當前位置:首頁(yè) >> 資訊 >> 行業(yè)資訊

      資訊頻道

      霍金稱(chēng)人工智能可能在100年之內取代人類(lèi)
      • 作者:葉怡萱
      • 點(diǎn)擊數:1576     發(fā)布時(shí)間:2015-05-26 21:19:00
      • 分享到:
      關(guān)鍵詞:

          人類(lèi)在下個(gè)世紀可能面臨人工智能機器人的大規模崛起,這些機器人的智力甚至可能超過(guò)人類(lèi)。距史蒂芬?霍金教授稱(chēng),與其擔心誰(shuí)來(lái)控制人工智能的問(wèn)題,人類(lèi)更應該擔心的是,人工智能到底愿不愿意受人類(lèi)控制。

          去年十一月,特斯拉創(chuàng )始人埃隆?馬斯克提出警告,人工智能機器可能在短短五年之內就會(huì )引發(fā)“一些非常危險的事件“。

          新浪科技訊 北京時(shí)間5月14日消息,據國外媒體報道,人類(lèi)在下個(gè)世紀可能面臨人工智能機器人的大規模崛起,這些機器人的智力甚至可能超過(guò)人類(lèi)。

          據史蒂芬?霍金教授稱(chēng),與其擔心誰(shuí)來(lái)控制人工智能的問(wèn)題,人類(lèi)更應該擔心的是,人工智能到底愿不愿意受人類(lèi)控制。

          他在倫敦舉辦的2015時(shí)代精神會(huì )議上提出了上述觀(guān)點(diǎn)。在此之前,他曾向人們發(fā)出警告:人工智能可能會(huì )導致人類(lèi)的滅絕。

          “人工智能計算機可能在接下來(lái)的100年之內就將人類(lèi)取而代之。”他說(shuō)道, “如果這樣的事情成為了現實(shí),我們必須確保計算機和我們站在同一戰線(xiàn)上。”

          “我們的未來(lái)是一場(chǎng)不斷增長(cháng)的科技力量與人類(lèi)使用科技的智慧之間的競爭。”

          今年早些時(shí)候,霍金和埃隆?馬斯克(Elon Musk,特斯拉CEO)共同簽署了一封公開(kāi)信,信中表示,人類(lèi)不應任由人工智能發(fā)展,而不加以控制。如果不對智能機器嚴加看管,人類(lèi)的前景可能會(huì )相當晦暗。信中提醒科學(xué)家,務(wù)必提前阻止這種悲劇的發(fā)生,否則人類(lèi)將因此滅絕。

          公開(kāi)信作者表示,當今社會(huì )已經(jīng)達成了“廣泛共識”,即人工智能研究發(fā)展勢頭良好,并對人類(lèi)社會(huì )產(chǎn)生越來(lái)越重要的影響。

          “由于現有文明的各方面都是人類(lèi)智力的產(chǎn)物,人工智能潛在的好處是巨大的。我們無(wú)法預測,人類(lèi)智力何時(shí)會(huì )被人工智能進(jìn)一步放大,但可以想象,疾病和貧困的徹底根除已經(jīng)不再是天方夜譚了。”

          盡管這樣的前景很誘人,但人類(lèi)在研究人工智能帶來(lái)的好處時(shí),必須努力避免其可能引致的風(fēng)險。

          例如,從短期來(lái)說(shuō),人工智能可能導致數百萬(wàn)人失業(yè)。而從長(cháng)期來(lái)說(shuō),一旦人工智能的智力超過(guò)了人類(lèi),它們就可能產(chǎn)生反抗,不按程序設定行事。

          “我們的人工智能系統必須嚴格按照我們的想法行動(dòng)。”公開(kāi)信中寫(xiě)道。

          而史蒂芬?霍金今年年初也表示,人工智能的誕生“可能是人類(lèi)歷史上最重大的事件,但不幸的是,也可能是最后一件”。

          去年十一月,特斯拉創(chuàng )始人埃隆?馬斯克提出警告,人工智能機器可能在短短五年之內就會(huì )引發(fā)“一些非常危險的事件“。

          他此前曾將能獨立思考的自動(dòng)化機器比作“召喚魔鬼”。去年十月,在于麻省理工學(xué)院發(fā)表的講話(huà)中,馬斯克將人工智能描述為“我們潛在的最大威脅”。

          他表示:“我認為我們應當謹慎對待人工智能。如果讓我猜測人類(lèi)的最大威脅是什么,我認為可能就是人工智能。所以我們必須小心處理。”

          “我們應當建立一些監管機制,可以是國家級的,也可以是世界級的,來(lái)保證人類(lèi)不會(huì )干出什么傻事。”

          “使用人工智能,就像是在召喚魔鬼。你們聽(tīng)過(guò)那些自以為是、自認為可以控制魔鬼的童話(huà)故事吧?千萬(wàn)別玩過(guò)頭了。”

          摘自 新浪科技 

      熱點(diǎn)新聞

      推薦產(chǎn)品

      x
      • 在線(xiàn)反饋
      1.我有以下需求:



      2.詳細的需求:
      姓名:
      單位:
      電話(huà):
      郵件:
      欧美精品欧美人与动人物牲交_日韩乱码人妻无码中文_国产私拍大尺度在线视频_亚洲男人综合久久综合天

    2. <blockquote id="fficu"><optgroup id="fficu"></optgroup></blockquote>

      <table id="fficu"></table>

      <sup id="fficu"></sup>
      <output id="fficu"></output>