|
| 這個會爬樓梯的全智能機器人適用於多種家務活,還可用於軍事探索和拯救 |
去年11月,一架『掠食者』無人偵察機飛到也門上空,用『海爾法』導彈炸死了6名『基地』嫌疑犯,只在現場留下了類似燒焦的痕跡。這次行動完全不亞於一次機器人作戰:完全保證美國大兵零傷亡的戰斗。今天,在戰後的伊拉克,不斷有美國士兵遇襲導致傷亡的報道傳出,人們很容易會提到一個問題:什麼時候會出現機器戰士可以減輕甚至取代現在士兵們的作戰任務?
據美國《新聞周刊》撰文指出,如果現在就要回答這個問題,答案將是:還要很長的一段時間。但把目光放長遠一點,答案將是很吸引人的,因為目前美國軍方對能用於作戰的機器人的研究正取得長足的進展。美軍對這個項目的研究可謂包羅萬象,從能投放到敵方建築物刺探敵情的微型偵探機器人,到可以自駕、為隊伍提供後備物質的大型支援交通工具。甚至,美軍現在正在研究『有袋』作戰機器人,這種機器人能隨身攜帶比較小型的機器人,一旦遇到碉堡或類似的建築,當它本身太大進不去時,它就會讓它身上的小型機器人去執行任務。
基礎研究機器人自立有沒上限?
經過好幾年反反復復、不斷停頓的日子後,美國國防部研究部門終於決定為研究用於作戰的機器人提供一筆巨額的、長期的資金。舉一個例子:國防部遠景研究計劃中心(DARPA)在2004年3月將舉行一個名為『大挑戰』的活動。挑戰的內容是建造一個完全『自立』的機器人,沒有人的控制,獨立駕車從洛杉磯東北面的巴士托出發,沿著設定路線,穿越沙漠,在10小時內到達拉斯維加斯。獲勝的科研小組將獲得高達100萬美元的獎金。
現在這條路線仍是一個秘密,但已知的是將會有在公路上和在沙漠上駕駛的兩種路線狀況,但不會設置路障,因為商家提供的四驅車不能適應有路障的路面。屆時,路面上的其他行人和車輛都要被清開。迄今,已有27個小組報名參加比賽。如果到時沒有一個小組能贏得比賽,DARPA會在2005年再計劃另一種比賽。
這個計劃聽起來是不是像某個好萊塢大片的情節?其實,這個計劃意圖把研究重點轉向目前研究軍用機器人面臨的最基礎的問題:是設計一種很會『照顧』自己的機器人,還是只建造那種在它們處理不了問題時就呼叫人類的機器人。早期設計這種自治性很高的機器人的申請一般都是應用於軍用補給線,這可以降低遭遇危險的可能性。
應用現狀稱職的『軍醫』和『警衛』
現在,總部在馬塞諸塞州的機器人技術研發企業——iRobot公司建造了一種名叫PackBot的軍用機器人。也許iRobot這個公司的名字聽起來有點耳熟,因為它曾推出的一款叫Roomba的全自動智能地板清潔器,也就是我們常說的吸塵器。它最大的特點是完全不需要人來控制。Roomba的兄弟,PackBot,會爬樓梯,會讓『站』直『身體』過窄道,甚至從二樓高的地方掉下來也『安然無恙』。
原本iRobot公司對PackBot設想是,提高它對外界機械撞擊的適應力,以適應城市的地形,但PackBot的成品卻更進一步,其中一種叫『偵探犬』的機器人可以到正在交火的戰場,為受傷的士兵做暫時性的治療,而不需要一名軍醫冒險前往戰場。而相對『偵探犬』更高級一點的機動機器設備,可以應用於危險程度比較高的偵察任務中,深入敵軍領域,發回現場圖片或數據。
另一個潛在的可應用於軍事的是機器人崗哨。目前,維吉尼亞州的機器人制造Cybermotion公司已研制出他們的大型貨倉機器警衛——CyberGuard,提供給一些私人的公司,例如拜爾公司和Genentech基因科技公司。在民用的貨倉,CyberGuard還是由人來控制(它也可以被設定巡邏模式),而且CyberGuard手裡沒有武器。目前美國軍方正對CyberGuard進行改進,讓它有更多自主的活動任務,例如配上不致命的武器裝備,比如胡椒粉發射系統等。
未來規劃機器戰士能殺人嗎?
當然,如果可以配上不致命的武器,那自然在技術上也可以做到配上可致命武器,但研究人員目前看起來還不著急。因為,僅僅是推出可在戰場執行簡單任務,或在大城市自由活動的機器人已經是一個大挑戰了。就像我們預測可能沒有一個科研小組能贏得DARPA舉辦的『大挑戰』活動——沒有一個完全自主的機器人能完成預定的路線。如果連這個都做不到,我們又有什麼理由完全信任一個裝備有致命武器的機器人呢?但無論如何,我們還是相信會有越來越多種的機器人被配上武器,由遠在千裡之外的指揮人控制作戰,這也就是『掠食者』無人偵察機能在也門完成任務的原因。
在未來的10年,軍用機器人還是將多數用於拯救生命,而不是作戰,當然,還會執行一些對人類很危險的任務。這將大大降低士兵的死亡人數——大約是在伊傷亡人數的1/3。但會有一天,在一些軍隊裡,機器人將自己開槍,加入火拼。科幻小數的書迷肯定還記得科幻小說家艾薩克·阿西莫夫的經典小說《機器人》裡寫到的『機器人技術的三條規則』——機器人永遠不能傷害人類,或任由人類受到傷害。在小說裡,這條規則是被寫入2058年的《機器人手冊》第56篇中。也許,只有到了連人類行為都大逆轉的時候,這條規則纔會被打破。
|