下面我們共同來看幾個例子:
1. 如果家中有臺智能輔助機器人專門負責照顧老年人生活,那么患了健忘癥的老人可能會讓機器人做許多重復的無用功,比如一件衣服一天洗個七八次;
2. 家中熊孩子可能會把日托機器人當玩具,命令它往窗外扔東西;
3. 學生可能會把作業甩給機器人完成;
4. 家政機器人在做菜時可能會被主人叫去倒垃圾。
這樣的例子數不勝數,稍不小心,可能就會把自己也搞得手忙腳亂。當然,以上這些最多讓你吃到暗黑料理,但如果有壞人教唆機器人犯罪,恐怕后果就嚴重了。
那么人類該如何避免因機器人服從命令而帶來的麻煩呢?如果別有用心的人讓機器人拿起刀向前走,而它前方站著一個人怎么辦?恐怕最好的方法要么是機器人停下不動,要么就是機器人拒絕拿刀。
不過,無論是哪種辦法,機器人都需要事先探知自己后續行為會造成的后果并主動做出是否遵守命令的選擇。那么我們怎么教機器人說“不”呢?
機器人怎么知道下一步會發生什么?
在實驗室中,我們已經開始開發基于人類命令的機器人控制系統,通過該系統,機器人就能決定是否執行人類命令(違反道德原則可以拒絕)。
不過,要想教會機器人不服從可不是個容易事,畢竟有些事的后果并非肉眼能看到的。將球扔出窗戶,可能會安全落在院子里,也有可能落在人潮不息的大街上,它會砸住人還是砸到車(引發一系列連鎖反應)誰也說不清。
以現在的技術條件,機器人很難確定到底什么時候能扔球(玩接球游戲可以扔,扔出窗外不可以)。此外,如果熊孩子故意欺騙機器人,假裝自己要玩接球游戲卻故意躲開,事情就有可能沿相反的軌道發展。
教授機器人道德和法律
要想讓機器人理解自己行為可能造成的危險后果,就需要讓它掌握大量的背景知識(如在窗前扔球可能會造成皮球飛出窗外)。機器人不但要衡量自己行為造成的結果,還要考慮人類發出某項指令的意圖。
而要想讓機器人明確領會人類復雜指令(善意與否)的意思,它們就要了解這些指令可能會造成的后果并與現有的社會道德和法律進行比對。
眼下,在管理機器人上我們有通用法則:“如果你被要求完成的任務可能會造成傷害,就可以決絕執行。”但如此簡單的描述根本不夠,為機器人制定詳細的責任和權限勢在必行。
總的來說,不做違法之事是機器人的基本原則,但如果人類的指令有問題,機器人也應該有說“不”的權利。因此,機器人“大腦”中必須裝有法律、道德甚至人類禮儀,這樣才能聰明的拒絕一些錯誤指令。
雖說現有的技術下機器人還很難獲得上述能力,但我們從現在就應該定下一個基調,那就是機器人有權說“不”。