為什么人類不相信機(jī)器人呢?
盡管有24%的美國消費(fèi)者認(rèn)為自動駕駛汽車的安全性高于人類駕駛員,但人類卻并不相信人工智能或機(jī)器人。但是考慮到90%以上的交通事故都是由人類的錯誤導(dǎo)致的,所以未來有很大的可能人工智能將接過人類的駕駛權(quán),那幺我們就不禁要問了,為什幺人類不相信人工智能呢?
本文引用地址:http://www.ex-cimer.com/article/201710/369007.htm2014 年,沃爾頓商學(xué)院進(jìn)行了一項(xiàng)調(diào)查,在這項(xiàng)調(diào)查中,調(diào)查者會根據(jù)人們做出的預(yù)測情況的好壞進(jìn)行適當(dāng)?shù)莫剟睢T陬A(yù)測過程中,人們可以使用自己的判斷,也可以采用人工智能的意見。這個算法得出的預(yù)測比人類的預(yù)測更好。盡管如此,只要人工智能做出了錯誤的預(yù)測,人們就會對其失去信心,盡管他們自己做出的錯誤更多。
這種情況被稱為“算法規(guī)避”或“算法回避”,即當(dāng)機(jī)器人出現(xiàn)一個錯誤時,人們就不再信任機(jī)器人。
除此之外,在酒品、醫(yī)療服務(wù)和股票選擇上也有一些相似的研究。無一例外,不管人類和機(jī)器人相比有多幺差勁,人們都會對機(jī)器人失去信心。甚至還不需要機(jī)器人真正做錯什幺。我們通常不信任那些和我們自己不相似的東西,因?yàn)樗鼈兊倪\(yùn)作模式和我們不一樣。
當(dāng)機(jī)器人開始在各行各業(yè)開始工作時,或者人工智能出現(xiàn)各種各樣的產(chǎn)品中時,這就會成為一個問題。你應(yīng)該如何增加人類對人工智能的信任,從而讓你的員工和客戶接受它呢?
解決方案卻很奇怪:讓機(jī)器人看起來更沒有信心。
看起來猶豫不決和困惑不解的機(jī)器人反倒能夠贏得人們更多的信任。馬薩諸塞大學(xué)盧維爾分校進(jìn)行了一項(xiàng)調(diào)查,他們要求人們幫助機(jī)器人通過一項(xiàng)滑雪游戲的課程。他們可以選擇使用操作桿引導(dǎo)機(jī)器人,或者讓機(jī)器人自己做,或者兩者結(jié)合使用。自動模式下的機(jī)器人的運(yùn)動時相當(dāng)快的,但這一點(diǎn)并不為參與者所知,而且機(jī)器人的程序中有讓機(jī)器人犯錯的程序。當(dāng)機(jī)器人犯錯時,研究參與者可能就會放棄機(jī)器人。但研究中的一些機(jī)器人的設(shè)計(jì)中會表現(xiàn)出困惑。當(dāng)他們不肯定應(yīng)該選擇那一條道路時,它們的表情就會從高興切換成悲傷。當(dāng)機(jī)器人表現(xiàn)出困惑時,人們更容易相信機(jī)器人能找到自己的解決方案。
這項(xiàng)研究已經(jīng)用在提高人類對機(jī)器人的信任上。此外還有兩項(xiàng)分別來自美國芝加哥大學(xué)和康涅狄格大學(xué)和荷蘭埃因霍溫大學(xué)的研究也試圖幫助人們提高對自動駕駛汽車的信心。埃因霍溫大學(xué)的研究者設(shè)計(jì)出了一個名叫Bob的驅(qū)動程序,此外它還具有人類的表情和頭部動作。在另一項(xiàng)研究中,駕駛模擬器使用了友好的女性聲音,并且還有一個女性的名字Iris。顯然,人們更容易相信Iris,而不是一個沒有名字的機(jī)器。
顯然,未來十年內(nèi),人工智能的問題還將繼續(xù)是一個敏感問題。隨著機(jī)器人和人工智能不斷向工作領(lǐng)域的滲透,關(guān)系重大的不僅僅是是否相信它們的判斷,而且還在于是否丟掉工作,士氣的問題以及傷痕累累的自我。但是除非人類知道自己可以相信人工智能,而你并不能完成所有的事情。所以搞清楚如何實(shí)現(xiàn)你的人工智能的人性化才是一個很好的開始。
評論