人工智能界為何對“殺手機器人”說不
聯(lián)合國《特定常規(guī)武器公約》政府專家小組9日在瑞士日內(nèi)瓦召開會議,預定討論致命自主武器系統(tǒng)研發(fā),也就是常說的“殺手機器人”可能帶來的影響。
本文引用地址:http://www.ex-cimer.com/article/201804/378083.htm50多名世界知名人工智能和機器人研究人員4日宣布,將聯(lián)合抵制韓國科學技術院,抗議該機構(gòu)研發(fā)人工智能武器的計劃。
與此同時,一封公開信已在美國谷歌公司內(nèi)部流傳數(shù)周,超過3000名谷歌員工簽名要求公司退出一項美國五角大樓人工智能軍事計劃。
人工智能迅速發(fā)展給社會各個領域帶來深遠影響,對軍事作戰(zhàn)系統(tǒng)研發(fā)也帶來全新理念。然而,人工智能界的專家學者及防務分析人士認為,機器人暴動僅是科幻小說式的終極噩夢,軍事機器人革命帶來的倫理、法律及政策等問題,尤其是自主武器能否自行判斷殺敵與否,才是人們亟須擔憂和討論的現(xiàn)實問題。
大多數(shù)專家學者一直認為,使用致命武器時,人應當是負責啟動的關鍵要素。對什么樣的人工控制才是最適宜的討論還未結(jié)束,相關的政策制定又已被人工智能技術的飛速發(fā)展甩在身后。隨著具有認知能力人工智能系統(tǒng)的出現(xiàn),更復雜的問題出現(xiàn)了。
新美國基金會研究人員、防務政策分析人士辛格在其著作《連線戰(zhàn)爭:21世紀機器人革命和沖突》中指出,地緣政治、知識前沿領域不斷前進的動力甚至是追求利益的科技企業(yè),都是人工智能發(fā)展不可阻擋的力量。簡單來說,大部分人現(xiàn)在最感到恐懼的是該不該讓能夠“思考”的人工智能系統(tǒng)決定是否殺人。
新美國安全中心技術和國家安全項目主管沙雷表示,自主武器系統(tǒng)可能因代碼問題或黑客攻擊而失靈,機器人攻擊人類部隊,人類無法作出反應或局部局勢迅速升級的情況都有可能發(fā)生。自主武器系統(tǒng)的可靠性難以測試,會“思考”的機器系統(tǒng)可能以人類操控者從未想象到的方式行事。
美國國防部前副部長米勒認為,自主武器系統(tǒng)在戰(zhàn)事激烈的地區(qū)執(zhí)行任務,讓機器全權負責的誘惑可能會難以抵制,技術上的可能總是讓人們作出利于形勢的選擇。
對于自主武器系統(tǒng),人工智能界的專家學者頻頻說“不”,拒絕進行相關領域的研發(fā)。例如,韓國科學技術院研制的機器人曾經(jīng)贏得2015年美國國防部高級研究項目局機器人挑戰(zhàn)賽的冠軍。據(jù)《韓國時報》報道,韓國科學技術院和軍工企業(yè)韓華系統(tǒng)合作成立研發(fā)中心,目的就是為了研發(fā)可以“無需人工控制就能搜尋并清除目標”的人工智能武器。
對此,50多名頂尖人工智能研究人員在公開信中說,他們將抵制和韓國科學技術院的任何合作,直到該機構(gòu)宣布不會研發(fā)任何缺乏人類控制的自主武器。韓國科學技術院隨后發(fā)表聲明說,他們沒有研發(fā)“致命自動武器系統(tǒng)或殺手機器人”的計劃。
美國五角大樓“梅文計劃”始于2017年,旨在找到加速軍方應用最新人工智能技術的方式。盡管五角大樓和谷歌都表示,谷歌的產(chǎn)品不會創(chuàng)造出無需人類操作者就能開火的自主武器系統(tǒng),但谷歌員工在公開信中說,參與“梅文計劃”將對谷歌的品牌和人才吸引力造成不可挽回的傷害,谷歌不應卷入戰(zhàn)爭,谷歌及其合約商永遠不應該發(fā)展戰(zhàn)爭科技。
在2017年人工智能國際會議上,有硅谷“鋼鐵俠”之稱的馬斯克、蘋果聯(lián)合創(chuàng)始人之一沃茲尼亞克、研發(fā)“阿爾法圍棋”的深度思維公司哈薩比斯等人,都曾簽署公開信,呼吁聯(lián)合國應像禁止生化武器一樣,禁止在戰(zhàn)爭中使用致命的自主武器和“殺手機器人”。
評論