最近,“人機大戰”引起世人關(guān)注,一些人對人工智能可能會(huì )對人類(lèi)造成危害甚至威脅人類(lèi)生存表示擔心。對此,英國科學(xué)家霍金和美國微軟公司創(chuàng )始人蓋茨等名人也提出了警告。我對人工智能發(fā)展持樂(lè )觀(guān)態(tài)度,但前提是人類(lèi)要制定和遵循設計與制造機器人的相應規則。
人類(lèi)制造的智能機器人威脅到人類(lèi)自身的生存,這被稱(chēng)為“技術(shù)奇點(diǎn)”問(wèn)題。技術(shù)奇點(diǎn)是指擁有人類(lèi)智能的機器人不斷改進(jìn)自己,并且制造或繁殖越來(lái)越聰明、越來(lái)越強大的機器人,最終達到人類(lèi)不可預測、無(wú)法控制的地步。如果制造智能機器人的技術(shù)越過(guò)這一奇點(diǎn),局面將無(wú)法收拾,會(huì )傷害人類(lèi)甚至使人類(lèi)面臨滅亡危險。但人類(lèi)可以防患于未然,防止機器人制造技術(shù)達到或超越這一技術(shù)奇點(diǎn)完全是有可能的,關(guān)鍵是我們有無(wú)能力使設計、制造機器人的科學(xué)家和制造商遵守人工智能發(fā)展的規則。
1942年,美國科普作家阿西莫夫提出了“機器人三原則”:一是機器人不能傷害人類(lèi);二是機器人要聽(tīng)從人類(lèi)指揮,除非違反第一條;三是機器人要保護自己,除非違反第一條或第二條。這些原則是好的,然而現在許多科學(xué)家提出的已不僅是機器人可能傷害人的問(wèn)題,而是關(guān)系到人類(lèi)生死存亡的問(wèn)題,“機器人三原則”已遠遠不能適應時(shí)代發(fā)展需要。這就迫切需要在“機器人三原則”基礎上,進(jìn)一步為人工智能發(fā)展制定規則。
人工智能發(fā)展的新規則至少應包含以下四個(gè)方面內容。第一,應禁止機器人擁有人類(lèi)所有智能,也就是說(shuō),在設計和制造機器人時(shí)應留一手。例如,不能讓機器人擁有制造或繁殖自己的能力。第二,應建立人工智能研究倫理審查委員會(huì ),審查智能機器人研究計劃,對于機器人擁有人類(lèi)所有智能的研究計劃不予批準,禁止利用任何資金資助這類(lèi)研究計劃。第三,與立法禁止化學(xué)和生物學(xué)武器類(lèi)似,設計和制造智能機器人的國家以及相應國際機構應立法禁止生產(chǎn)與人類(lèi)一樣聰明甚至比人類(lèi)更聰明的智能機器人,違反此類(lèi)法律者要承擔刑事責任。第四,要求科學(xué)家和企業(yè)設計與制造行動(dòng)合乎道德的機器人。讓機器人與我們一樣自主做出合乎道德的決定,這是一件比較困難的事情。鑒于近幾年應用功能性核磁共振技術(shù)研究大腦的成果,人們的道德直覺(jué)和道德判斷也可能有神經(jīng)生物學(xué)基礎,甚至也可能有基因基礎,這就給研發(fā)行動(dòng)合乎道德的機器人的計劃提供了科學(xué)基礎。
在防止智能機器人危害人類(lèi)的同時(shí),也應考慮如何正確對待它們。如果機器人沒(méi)有感知疼痛的能力,那么,它就是沒(méi)有道德地位的,只是人類(lèi)的工具而已。然而,一旦機器人能感知疼痛,就會(huì )產(chǎn)生倫理問(wèn)題。我們不能任意對待能感知疼痛的動(dòng)物,即使在一定條件下我們需要利用它們進(jìn)行實(shí)驗研究,也要關(guān)心它們的福利,對它們的研究方案要經(jīng)過(guò)動(dòng)物實(shí)驗機構倫理委員會(huì )審查批準。同理,一旦機器人能感知疼痛,我們就應像對待能感知疼痛的動(dòng)物一樣對待它們。機器人一旦有了自我意識,包括理性、情感以及社會(huì )互動(dòng)能力,在某種意義上就應被當作具有人格的人或社會(huì )的人來(lái)對待,享有生命和福利受保護的權利。
摘自《人民日報》