相信看過《終結者》的觀眾都對影片中擁有自我意識的機器人印象非常深刻。本是在服務人類的初衷下產生的機器人在擁有獨立意識后,紛紛反水,對人類發起了大肆進攻。
除了《終結者》系列,《黑客帝國》等影片也在講述著類似的故事,反映著一個共同的心理——人們在享受著智能化帶來的便利時,也懷揣著隱憂。
近日,英國標準協會發布了全球首個關于機器人倫理設計的規范指南。其中對機器人的欺詐問題、成癮現象、傷害行為等作出規范。人們在嘗試將機器人,甚至可以說所有的智能化產品納入人類社會的道德系統中去。
毋庸置疑,這有相當大的難度。但智能化的倫理設計的最大難關還不是人們愿不愿意按照規定設計,而是不知道怎么設計。
靈活性的質疑:電腦能替代人腦嗎?
在大部分的科幻電影中,智能化設備的終極目標是完全的電腦代替人腦。而設備實現智能化操作是通過預先設定程序實現的。為了不與社會倫理相違背,企業在生產時如何進行功能預置成為難題。
以無人駕駛車輛為例。即使無人駕駛車輛的初衷是解放人的大腦,同時減少交通事故,但并不意味著它一定沒有風險。那么緊急避險設置如何進行?
網上有人提出這樣的問題:如果在行駛過程中,前方出現一個物體,不影響行駛的情況下要不要停?逢物不停,或許下一秒會突然有個孩子竄出來撿東西;逢物必停,則嚴重影響用戶的駕駛體驗。
還有這樣的疑惑:當前方行駛著一輛摩托車和一輛轎車,此時車剎車系統失靈,不可避免地會撞上一輛車,那車輛在智能化預置時怎樣操作?
雖說人腦在處理時也不一定能規避這些問題,但企業在進行智能化產品的量產時,如果不考慮好的話必然會招致社會輿論的壓力和道德的拷問,埋藏禍端,限制企業發展。如何才能將風險和傷害降到最低,如何更順應人們的心理需求,是企業進行智能化產品倫理設計的基礎。
法律層面的質疑:有些甚至連合法身份都沒有
法律在這一領域的態度大多是遲緩而謹慎的。在某些智能化產品推廣過程中,就連獲得合法身份都是企業需要突破的難關。
這種滯后也是可以理解的。平衡車、無人機……智能化產品的風靡就好比雙刃劍。近幾年,無人機以“空中交警”的身份在交通執法中出現的頻率越來越高。但除了利好的一面,無人機還面臨著墜落傷人、偷窺隱私等質疑。無人機的安全性從生產到監管,還沒有達到百無一漏的地步。
而且,機器人的深度學習遠超過我們的預計。國外研究發現,當機器人執行特定任務時,并不是完全按照事先編寫好的程式,而是采用不同的方式來實現指令,逐漸形成策略。也就是說,在“后智能化時代”,機器人掌握一定的學習能力不是癡人說夢。事實上,如今機器人的某些深度學習能力已進入成熟階段,例如圖像識別、語音識別等。
據了解,國內有家公司在制造機器人時,刻意地限制了其自我學習能力,還限制了影像資料的保存時間,就是為了避免泄露用戶的隱私信息。
那么當機器人有違法行為時,誰來埋單?所有者、生產廠商還是機器人?按照英國標準協會機器人的倫理設計規范來說,需要負責的是人而非機器人。但是,有時這種責任是難以界定的。衛報之前報道過一件事,用戶給機器人一些錢用于購物,但最終機器人買到了護照、興奮劑、可偷拍的棒球帽等違法物品。責任在誰,很難明確區分。
智能化產品的倫理設計,還有很長的路要走。