技術難關:分辨敵友
目前,機器戰士雖然可以自動完成多種任務,但仍需由人類來指揮。“劍”機器人在伊拉克進行第一次反恐任務時,需兩名人類操作員遙控。其中一人負責按下按鈕讓機器人行動,而另一人則負責打開機器人該部位的兩個紅色電閘,以便讓機器人能開火。目前工程師需要攻克的難關就是,教會機器人如何分辨敵友。
美國五角大樓希望給予機器人更多的自主决定權,以便一名人類士兵可在同時操縱多個遙控機器人系統。根據美國陸軍的一份文件,“致命和非致命戰鬥”日後都可以由機器人自主完成。目前人類操作員對于這些機器戰士的控制非常嚴格,在相當一段時間內不會出現像好萊塢電影《機器警察》和《未來戰士》中那種具有人性的機器人。但美國喬治亞理工學院的機器人專家羅納德·亞金表示,研制出擁有人工智能的機器戰士幷不存在科學上的障礙。亞金最近正在進行一項互聯網調查,試圖了解軍方官員、政客、機器人研究學者和普通民衆對于自動戰鬥機器人的看法。
如果真的出現會思考的機器戰士,那麽它們在戰場上會遵循怎樣的道德倫理規則呢?亞金目前正研發一種能够讓機器人自動遵循設定道德規則的計算機軟件。
“機器戰士的進攻”聽起來有些恐怖,但機器人專家亞金認爲,其前景也有光明的一面。亞金表示,一旦成功地讓機器戰士遵循計算機設定好的道德程序行事,“它們會比人類更富人情味”。亞金打算在下個月對外公布自己研制的軟件原型。安裝了這種軟件的機器人會根據實地情况和使命從一系列行動中作出最符合道德標准的選擇,如果執行的使命本身是不道德的,那麽這個機器人可能會拒絕執行。(來源:廣州日報)
|