美國法律扼殺機器人前途 產(chǎn)業(yè)發(fā)展喜憂參半
國防部指導(dǎo)中寫到:“自主和半自主武器應(yīng)該能夠聽得懂指揮官或操作人員下令開火的合適命令?!币?guī)劃中要求武器要做到“足夠機動靈活,盡量避免執(zhí)行計劃外行動或讓未授權(quán)使用者操控機器?!?/p>本文引用地址:http://www.ex-cimer.com/article/201603/288243.htm
但是指導(dǎo)似乎的的確確放棄人工智能武器,而選用人類精確定位目標(biāo):“有人監(jiān)控自主武器系統(tǒng)可以用于選擇目標(biāo)并向目標(biāo)開火,但目標(biāo)不可為人類,以應(yīng)對攔截美國國內(nèi)可能發(fā)生的襲擊行動,這些行動經(jīng)常是時敏目標(biāo)或密集目標(biāo)?!?/p>
英國政府的態(tài)度則與美國相反,英國并不打算采用全自主武器。今年初英國外交部部長Alistair Burt向國會做陳述說“英國軍隊的武器控制權(quán)始終掌握在人類手中,以此保證武器由人類監(jiān)督由人類掌管,并由人類負(fù)責(zé)使用武器?!钡请S后Burt的言辭又讓人尋味:“英國單方面做出承諾目前階段絕不部署致命自助武器系統(tǒng),但是這不表明英國會簽署暫緩研發(fā)和使用自主機器人武器的條約?!?/p>
ICRAC主席Norl Sharker是英國謝菲爾德大學(xué)研究人工智能和機器人的一名教授。這位教授看過了自主武器的軍方計劃書后大為震驚,因為“軍方顯然完全過分預(yù)估了這項技術(shù),他們對自主機器人的看法更像是科幻小說的描寫?!?/p>
ICRAC提議禁止研發(fā)和制造自主機器人武器的目的并不是抵抗自主機器人?!拔壹依镉玫奈鼔m器機器人就是自主機器人,我研究自主機器人的開發(fā)已經(jīng)有30個年頭了?!盜CRAC真正希望是禁止機器人擁有“殺戮功能”。自主機器人一旦運行,就會自主尋找目標(biāo)并打擊目標(biāo),Sharkey說:“打擊目標(biāo)的意思是指殺死目標(biāo)。把機器人設(shè)計成自己選擇自己認(rèn)為合適的目標(biāo)進行打擊,這就是ICRAC要阻止的?!?/p>
對Sharkey來說機器人根本不會遵循基本的戰(zhàn)爭法。機器人無法區(qū)分戰(zhàn)斗人員和平民,也無法分辨出哪些人是傷兵或者那些建筑是符合戰(zhàn)爭法中規(guī)定的可打擊目標(biāo)?!皼]有任何人工智能機器人武器可以做到完全分辨目標(biāo),根本不可能。”Sharkey博士指著英國制造的可以區(qū)分人和汽車的機器人說“這太機器人可以分辨人和汽車,但卻分不清對面站著的是一只跳舞的狗熊還是一條兩條后腿站立的狗。”
機器人武器也不能判斷利弊,他說,機器人無法判斷某次攻擊行為造成的軍事打擊和平民傷亡孰重孰輕。“機器人怎么可能知道?軍事打擊獲得的戰(zhàn)爭優(yōu)勢都可以讓博士們發(fā)表好幾篇論文了,戰(zhàn)場上有太多變數(shù),只有身經(jīng)百戰(zhàn)的指揮官身臨戰(zhàn)場才能做出判斷?!?/p>
Sharkey指出最大的問題其實還是負(fù)責(zé)制度。如果某次軍事行動出錯,機器人無法被問責(zé),這也是與Sharkey交流過的指揮者們真正擔(dān)心的問題:如果機器人出錯了,倒霉的可是指揮官們。
“這對指揮官不公平,機器人隨時會崩潰當(dāng)機,機器人有可能被人類誘騙,可能被黑,可能由于編程中的某次出錯讓黑客通過計算機控制開槍,機器人的傳感器可能出現(xiàn)故障,而這一切又應(yīng)該由誰來負(fù)責(zé)呢?是制造者?軟件工程師?機器人工程師?還是指揮官?在戰(zhàn)場上一旦出錯必須清楚誰該負(fù)責(zé)?!?/p>
Sharkey關(guān)心的是一旦技術(shù)上的限制被突破,戰(zhàn)爭機器人極有可能逐步推廣到全世界的戰(zhàn)場?!白灾鳈C器人技術(shù)并非用于戰(zhàn)爭,即便自主機器人武器被部署在戰(zhàn)場,這項技術(shù)本身也不適合用于戰(zhàn)爭?!?/p>
戰(zhàn)場上的科技樹越攀越高,自主機器人投入使用的可能行也越來越大。如果僅靠攔截通訊就可以阻攔敵方無人機,那么可以輕易自主執(zhí)行任務(wù)的無人機就會被開發(fā)出來。同樣的道理,遙控?zé)o人機駕駛員在遙控裝置上發(fā)出一個指令到無人機真正執(zhí)行之間有1.5秒的延時,人工操控?zé)o人機的反應(yīng)速度會不如自主無人機,這也為自主無人機的推廣給出了理由。
評論