|
||||
據英國《每日電訊》報12月1日報道,美國五角大樓計劃研制『有道德的』新型機器人戰士,它並不像電影《終結者》中的T-800機器殺手那樣不分青紅皂白地亂殺一氣。事實上,美國陸軍和海軍現在都聘請了道德方面的專家來研制機器人,以防制造出可能濫殺無辜的『機械殺人狂』。
機器戰士在道德上不犯錯《每日電訊》的報道指出,到2010年,美國將投資40億美元進行『自控系統』的研究,『自控系統』是美軍對新型機器人的內部稱呼,采用這一設計的產品不會受到恐懼感或復仇欲望的影響,因而也不會犯道德層面上的錯誤。
目前,美國海軍已經聘請了一名英國專家做顧問,研制不會違反《日內瓦公約》的下一代機器人。印第安那大學的學者柯林·艾倫剛剛出版了一本書《道德機器:教機器人分辨是非》,概述了自己對這類問題的觀點。『現在需要得到回答的問題是,我們能否制造出順從戰爭法的自動武器,能否利用道德理論幫助設計這些機器人。』
有關伊拉克戰爭壓力的研究顯示,佔很大比例的前線戰士支持對敵人進行折磨和懲罰——參與作戰的美軍戰士也是人,有時難免會判斷失誤或者受情緒影響而不守道德。針對這種現象,佐治亞理工大學的計算機專家唐納德·阿金寫過一份報告,他在報告中指出,盡管機器人不會『在戰場上表現出完美的道德』,但卻能『比人類士兵表現得更好』。
在阿金看來,機器人『不需要保護自己』,而且『能夠被設計成沒有情緒,從而不會妨礙它們的判斷或者因戰場發生的事情而感到憤怒或沮喪』。
仍可能變回恐怖殺人狂?事實上,種類繁多的戰斗機器人早已被用於伊拉克和阿富汗戰爭,它們向敵人的目標發動空襲,還被用來拆除路邊炸彈和其他臨時爆炸裝置。上個月,美國陸軍剛剛接收了一款由英國奎奈蒂克防務公司制造的新型機器人,它能夠使用多種武器,包括胡椒粉催淚彈、高爆榴彈以及7.62毫米口徑的子彈。
不過,這一代機器人仍然是由人類遙控的。相比之下,研究人員正在開發的下一代『機器戰士』可以自動識別目標和武器,並區分敵方部隊種類(比如坦克或武裝人員)以及軟目標(比如救護車或平民)。它們的軟件中包含符合《日內瓦公約》的作戰指令,技術人員將軟件置入機器人體內,告訴它們何時開火。
艾倫博士對軍方的做法表示贊賞:『現在應該開始思考這種問題了,那就是將道德理論置入軟件,保證機器人做出正確的行動,而不是等為時太晚時纔做這些。』艾倫認為,美國軍隊想要能完全自控的機器人,因為他們目前還在用經過嚴格訓練的人員來操縱它們。那些真正昂貴的機器人之所以處於人類的直接控制下,主要是因為實在損失不起。他說:『一架"捕食者"無人機需要6個人24小時控制著,我知道美國空軍已經研制出軟件,可以訓練這種無人機的操作員。但如果計算機能夠訓練操作員的話,那麼最終也將可以用於控制無人機的飛行。』
然而仍有一些人擔心,研制出完全不會出錯誤的機器人是不可能的。一旦發生故障,它們仍然可能變回恐怖殺人狂。謝菲爾德大學的計算機科學家諾埃爾·夏基因參與電視劇《機器人戰爭》而著名,作為美軍計劃最強烈的批評者,他表示:『該計劃讓我脊梁骨發寒,我研究人工智能已經幾十年了,讓機器人代替人類作出決定,這個想法真的太可怕了!』(張貴餘) (青年參考)
請您文明上網、理性發言並遵守相關規定,在註冊後發表評論。 | ||||