到2010年為止,美國在戰爭機器人研究項目上的投資將達到40億美元。美國陸軍和海軍同時雇傭了道德規范領域的英國專家,協助研制不會違反《日內瓦公約》的新型戰爭機器。這種機器人既能夠自主辨別何時、向誰開槍,也不是像電影《終結者》那樣道德的殺人機器。
印第安那大學哲學家艾倫教授剛剛出版了一本新書,名為《道德機器:幫機器人分辨正誤》。在這本書中,他詳細闡述了如何將道德倫理“灌輸”給機器人。佐治亞理工大學計算機專家阿爾金教授目前正在為美軍研制應用于戰爭機器人的計算機軟件,他寫了一份相關報告。在這份報告中,他表示,盡管沒有“在戰場上對按道德行事”的機器人,但它們可以“比人類表現得更加合乎倫理”。這是因為機器人“不需要保護自己的身體,也沒有感情,因而不會對戰場上不斷變化的情形發生情緒化反應”。這樣,機器人戰士既不會因恐懼心理作祟而不敢奔赴前線,也不會在抓獲對方戰俘后便出于報復心理而對其嚴刑拷打。
盡管目前已有大量的機器人在伊拉克和阿富汗戰場上“服役”,但這一代機器人都是由人工進行遠程控制的。而新一代的機器人將能夠發現攻擊的目標及其所使用的武器,區分敵方目標是武器火力還是武裝士兵,并能夠識別救護車和平民這樣的軟目標。專家會將符合《日內瓦公約》的戰爭規則寫入到軟件中,然后將它裝到機器人體內,這樣機器人就可以知道什么時候開槍了。
然而,一些分析人士擔心,制造完全不犯錯誤的機器人是不可能的。設菲爾德大學的沙爾奇教授就是這一計劃的主要批評者之一。他說:“聽到這個設想我不禁打了個寒顫。我已經在人工智能領域工作多年,但讓機器人來決定人類的終結,這種想法太可怕了。”(王菁)