專家建議把人類價值"植入"機器人 防范人工智能
外媒稱,隨著人工智能技術(shù)越來越先進,人們愈發(fā)擔心,機器人可能變成一種威脅。據(jù)加利福尼亞大學伯克利分校計算機學教授斯圖爾特·拉塞爾說,這種危險是可以避免的,如果我們能夠解決如何把人類價值變成可編程的代碼。
本文引用地址:http://www.ex-cimer.com/article/282294.htm據(jù)美國石英財經(jīng)網(wǎng)站11月1日報道,拉塞爾說,在機器人領(lǐng)域,“道德哲學將是一個非常重要的產(chǎn)業(yè)部門”。他指出:“隨著機器人從事更加復(fù)雜的任務(wù),我們絕對有必要把我們?nèi)祟惖牡赖罗D(zhuǎn)化為人工智能語言。”
比如說,如果機器人在房子里做雜務(wù)——預(yù)計未來幾十年將會出現(xiàn)這種場面——的話,你可不想機器人把寵物貓放進烤箱里,給饑腸轆轆的孩子們做頓大餐。拉塞爾說:“你會希望給那個機器人預(yù)先載入一大套人類價值。”
人們已將基本的人類價值編入了一些機器人的程序?,旣惻醮髮W計算機學教授彼得·麥克歐文說,可移動機器人就被編入了與人類保持適當距離的程序。
他說:“這是機器人行為可被視為體現(xiàn)某種價值的一個極為簡單的例子。如果機器人在你和別人說話時靠近你們的私人空間,你就會認為,這不是一個有教養(yǎng)的人會做的事情。”
創(chuàng)造更復(fù)雜的、具備道德規(guī)范的機器人是可能的,但條件是我們要找到把人類價值設(shè)定成明確規(guī)則的辦法。
麥克歐文說:“這種價值設(shè)定工程要有研究人類價值的專家參與進來,其中包括哲學家、心理學家、人種學家以及外行人士。就像你把專業(yè)知識轉(zhuǎn)化成一套規(guī)則一樣,你可以將這個討論組提供的信息轉(zhuǎn)化成一系列規(guī)則。”
此外,機器人還可以選取根據(jù)有關(guān)人類行為的大套數(shù)據(jù)制成的模型來學習人類價值。
麥克歐文說,只有在程序員不負責任的情況下,機器人才會成為一種危險。
他說:“就機器人違反人類價值這一問題,人們最擔心的是,如果人類因為沒有進行充分測試而沒有給機器人正確編程的話,機器人就不會有充分的安全保障,它們就會有辦法去打破某種禁忌。”
簡單的方法是,當出現(xiàn)特殊情況時,給機器人編入讓人去檢查機器人行為是否正確的程序。
麥克歐文說:“如果機器人不確定一種動物是否適合被放進微波爐時,它可以停下來,發(fā)出嗶嗶的信號聲,以請求人給出指示。”
把人類價值編成程序最困難的一步是,要確定什么才是我們認為的道德行為,以及如何制定一套道德規(guī)則。如果我們有了答案,那么機器人對人類就會是有益的。
評論