<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          新聞中心

          EEPW首頁 > 智能計(jì)算 > 業(yè)界動(dòng)態(tài) > 有偏見的人工智能云出現(xiàn)一線改善的希望

          有偏見的人工智能云出現(xiàn)一線改善的希望

          作者: 時(shí)間:2019-03-15 來源:電子產(chǎn)品世界 收藏

            盡管算法支持的產(chǎn)品現(xiàn)在已經(jīng)從夢(mèng)想變成了現(xiàn)實(shí),但是如果使用不當(dāng),它們很快就會(huì)成為現(xiàn)代噩夢(mèng)。作為一家提供平臺(tái)的公司的CSO,我知道我們?cè)谠O(shè)計(jì)系統(tǒng)時(shí)匆忙做出的選擇可以將任何原本高尚的行動(dòng)變成躲在革命大旗后的怪物。對(duì)于設(shè)計(jì)粗心大意的人工智能系統(tǒng),我曾經(jīng)見過的最為常見但也是無意識(shí)帶來的副作用之一就是預(yù)測結(jié)果針對(duì)特定利益相關(guān)方(一個(gè)人、一個(gè)群體或者一個(gè)國家)出現(xiàn)系統(tǒng)性的偏差,并導(dǎo)致了歧視。人工智能系統(tǒng)的偏見問題已經(jīng)引發(fā)了長時(shí)間的討論,政府機(jī)構(gòu)——例如美國政府和歐盟基本權(quán)利機(jī)構(gòu)(European Union Agency for Fundamental Rights )也已經(jīng)就此問題發(fā)布了專門的報(bào)告。然而,直到最近,主要商業(yè)相關(guān)方對(duì)這一問題似乎都無所作為。但最終,我們看到了一線希望,該領(lǐng)域最大的參與者開始行動(dòng)了。

          本文引用地址:http://www.ex-cimer.com/article/201903/398509.htm
          有偏見的人工智能云出現(xiàn)了一線改善的希望

            云端

            盡管人工智能領(lǐng)域取得了巨大的成就,但構(gòu)成人工智能基礎(chǔ)的算法只是冷酷的數(shù)學(xué)方程,它們本身無法做任何事情。它們就像停車場閑置的汽車,等待有人為它們加油并賦予它們存在的正確意義。算法的燃料是數(shù)據(jù)。數(shù)據(jù)教導(dǎo)算法理解我們的世界規(guī)則和數(shù)據(jù)。然而,這里的薄弱環(huán)節(jié)在于數(shù)據(jù)是由人準(zhǔn)備的。這種知識(shí)傳播鏈可能導(dǎo)致現(xiàn)實(shí)世界中的偏見和不公正會(huì)影響算法的思維方式,盡管這種影響可能是始料未及的。

            一些比較壯觀的日常例子可能包括《紐約時(shí)報(bào)》報(bào)道的面部識(shí)別軟件在識(shí)別白人面部時(shí)表現(xiàn)得更好;一些作家稱語音識(shí)別軟件更難以理解女性的聲音或者某些口音。然而,有很多例子表明帶有偏見的系統(tǒng)可能會(huì)造成更大的社會(huì)影響:一項(xiàng)研究認(rèn)為美國刑事司法系統(tǒng)使用的累犯風(fēng)險(xiǎn)評(píng)分可能存在著偏見,而另一些報(bào)道則稱基于數(shù)據(jù)的教師評(píng)估系統(tǒng)也可能帶有偏見。

            幸運(yùn)的是,我最近觀察到這個(gè)領(lǐng)域的一些最大的玩家采取了一些行動(dòng),為更光明的未來帶來了一線希望。

            曙光初現(xiàn)

            在2018年5月初,F(xiàn)acebook宣布它已經(jīng)創(chuàng)建了一個(gè)特殊的內(nèi)部機(jī)構(gòu),評(píng)估該公司算法做出的決策是否符合道德規(guī)范并且不含有偏見。此外,它還透露該團(tuán)隊(duì)的工作將得到“離散軟件”的支持。

            Facebook的這個(gè)團(tuán)隊(duì)廣泛地同公司內(nèi)部和外部的利益相關(guān)者合作(例如,Better Business Bureau’s Institute for Marketplace Trust和Brookings Institution)。盡管Facebook不會(huì)公開該軟件的內(nèi)部細(xì)節(jié),但它正在考慮通過學(xué)術(shù)出版物提供調(diào)查結(jié)果。該公司希望獲得更多元化的人工智能人才,積極推動(dòng)對(duì)抗偏見的斗爭。

            大約在同一時(shí)間,微軟采取了類似的行動(dòng)——開發(fā)“一種能夠自動(dòng)識(shí)別各種人工智能偏見的工具”。我相信這一舉措肯定會(huì)幫助該公司提高有問題的算法的檢出率。該公司似乎已經(jīng)明白,參與創(chuàng)建人工智能的人是人工智能偏見的主要來源。

            而IBM則提出了另一種稍微不同的主張——這可能是目前最強(qiáng)大的一項(xiàng)舉措,因?yàn)樗梢灾苯舆m用于整個(gè)行業(yè)。該公司的研究人員發(fā)表了一篇論文,建議采用供應(yīng)商符合性聲明(SDoc),在多個(gè)層面上確定算法的性能,例如性能標(biāo)準(zhǔn)化測試、公平性、風(fēng)險(xiǎn)因素和安全措施。任何想要使用這一算法的人都可以看到這些結(jié)果。

            雖然這些努力都建立在善意的基礎(chǔ)上的,但我們不得不承認(rèn),我們每天都在使用認(rèn)知偏見;僅維基百科就列出了200個(gè)。偏見在我們的學(xué)習(xí)過程中發(fā)揮著重要作用。無論它們多么有害,我相信它們是我們大腦探索的一種形式,可以讓我們更快地做出決定。因此,建立毫無偏見的人工智能存在著固有的挑戰(zhàn),特別是如果你在人類制作的內(nèi)容上進(jìn)行訓(xùn)練的話,就更是如此。隨著近幾年對(duì)人工智能的炒作,我們傾向于忘記盡管技術(shù)和算法的改進(jìn)讓我們離科幻電影中真正可以思考的機(jī)器更近了一步,我們離真正自動(dòng)化并且更理性的機(jī)器還有很遠(yuǎn)。

            結(jié)論

            我們現(xiàn)在就要開始解決因使用有偏見的人工智能而產(chǎn)生的所有潛在問題。自學(xué)機(jī)器的概念不再只是一個(gè)愿景,社會(huì)已開始接受這一事實(shí)。與此同時(shí),我們?nèi)詫⑷斯ぶ悄芤暈樾律挛?,我們?nèi)栽诘却锩恼鎸?shí)面目。我們走得越遠(yuǎn),我們聽到的人工智能故事就越令人驚訝。而且,大規(guī)模使用未經(jīng)檢測、帶有偏見并無法解釋的算法可能會(huì)悄然引發(fā)悲劇,每個(gè)人創(chuàng)建自學(xué)產(chǎn)品越容易,這種悲劇就越發(fā)難以避免。我相信上述提到的所有舉措都應(yīng)該得到贊揚(yáng)、支持和復(fù)制,人工智能革命所有的利益相關(guān)方都應(yīng)該這樣做。



          關(guān)鍵詞: 人工智能

          評(píng)論


          相關(guān)推薦

          技術(shù)專區(qū)

          關(guān)閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();