<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          新聞中心

          EEPW首頁 > 智能計(jì)算 > 業(yè)界動(dòng)態(tài) > 谷歌高管:人臉識(shí)別技術(shù)存在巨大社會(huì)風(fēng)險(xiǎn)

          谷歌高管:人臉識(shí)別技術(shù)存在巨大社會(huì)風(fēng)險(xiǎn)

          作者: 時(shí)間:2018-12-24 來源:科技行者 收藏


          本文引用地址:http://www.ex-cimer.com/article/201812/395944.htm

            在最近發(fā)布的一篇博文中,公司全球事務(wù)高級(jí)副總裁Kent Walker寫道:將不會(huì)通過Google Cloud提供“通用型”的API。除非相關(guān)“挑戰(zhàn)”得到明確“認(rèn)定與解決”。

            

          谷歌高管:人臉識(shí)別技術(shù)存在巨大社會(huì)風(fēng)險(xiǎn)


            Walker解釋稱,“與其它一些公司不同,正在努力解決與技術(shù)相關(guān)的一系列重要技術(shù)與政策性問題。與眾多具有多種用途的新技術(shù)一樣,的應(yīng)用同樣需要被慎重考量,從而確保其使用方式符合我們的原則與價(jià)值觀,同時(shí)避免濫用與可能出現(xiàn)的危害性結(jié)果。”

            最近,谷歌公司似乎對(duì)新技術(shù)的使用表現(xiàn)出了與業(yè)界不同的謹(jǐn)慎態(tài)度。不久之前,谷歌方面正式?jīng)Q定中止為美國國防部提供對(duì)無人機(jī)拍攝內(nèi)容進(jìn)行分析的人工智能方案。

            事實(shí)上,除了谷歌之外,還有不少科技巨頭一直在廣泛關(guān)注人臉識(shí)別技術(shù)中的種種不成熟跡象,以及可能由此造成的危害影響。日前,由布魯金斯學(xué)會(huì)在華盛頓舉辦的一次活動(dòng)當(dāng)中,微軟公司總裁Brad Smith就建議人們應(yīng)當(dāng)考慮到人臉識(shí)別技術(shù)當(dāng)中可能存在的“高風(fēng)險(xiǎn)場景”,例如該技術(shù)可能被用于限制人身自由。他認(rèn)為,利用人臉識(shí)別技術(shù)的團(tuán)隊(duì)?wèi)?yīng)遵守關(guān)于性別、種族以及民族的反歧視法,并且各企業(yè)都應(yīng)對(duì)自家人工智能方案的局限性保持高度“透明”。

            對(duì)此,Smith還進(jìn)一步指出,微軟公司已經(jīng)得出其中可能存在人權(quán)風(fēng)險(xiǎn)的結(jié)論,并且一直在拒絕客戶提出的部署人臉識(shí)別技術(shù)的要求。據(jù)透露,今天6月微軟公司撤銷了一份合約,合約內(nèi)容要求微軟方面為美國移民與海關(guān)執(zhí)法局(簡稱ICE)提供數(shù)據(jù)處理與人工智能類工具

            Smith解釋稱:“人臉識(shí)別技術(shù)的出現(xiàn)正在催生出一種新的可能性,即實(shí)現(xiàn)大規(guī)模監(jiān)控體系。對(duì)于政府來說,這項(xiàng)技術(shù)將幫助其在任意位置追蹤任意目標(biāo)。如果我們不充分考慮到這些可能性,那么這一切有可能在2024年突然降臨到我們自己身上——就如同《一九八四》(《一九八四》(Nineteen Eighty-Four)中刻畫了一個(gè)令人感到窒息的恐怖世界,在假想的未來社會(huì)中,獨(dú)裁者以追逐權(quán)力為最終目標(biāo),人性被強(qiáng)權(quán)徹底扼殺,自由被徹底剝奪,思想受到嚴(yán)酷鉗制,人民的生活陷入了極度貧困,下層人民的人生變成了單調(diào)乏味的循環(huán)。)一書中描述的可怕景象一樣。”

            Salesforce公司首席科學(xué)家Richard Socher也抱有同樣的焦慮情緒。在本月于蒙特利爾召開的NeurlPS 2018大會(huì)期間,他在接受VentureBeat采訪時(shí)表示,正是由于存在這些顧慮,Salesforce公司目前才決定不通過Einstein圖像識(shí)別API為Einstein Vision提供人臉識(shí)別功能。

            他指出,“一旦我們開始根據(jù)某人的面部做出各種重要的決策,那么由此引發(fā)的后果有可能非??膳隆H斯ぶ悄茉跊Q策層面的實(shí)際表現(xiàn),完全取決于其用于訓(xùn)練的數(shù)據(jù)質(zhì)量。”

            人工智能的失誤

            然而,并非每一家公司都有同樣的審慎態(tài)度。

            今年夏天,亞馬遜公司將Rekognition(一種基于云的圖像分析技術(shù),通過Amazon Web Services事業(yè)部正式對(duì)外開放)交付至佛羅里達(dá)州奧蘭多市以及俄勒岡州華盛頓縣警長辦公室作為執(zhí)法工具。奧蘭多市隨后決定續(xù)簽相關(guān)協(xié)議,并試行人臉識(shí)別監(jiān)控計(jì)劃——此項(xiàng)計(jì)劃覆蓋該市警察隊(duì)伍中的眾多志愿者;此外,華盛頓縣還決定利用該項(xiàng)功能構(gòu)建一款應(yīng)用程序,利用一套包含30萬人臉信息的數(shù)據(jù)庫對(duì)可疑犯罪分子的照片進(jìn)行掃描比對(duì)。

            在一項(xiàng)測(cè)試當(dāng)中(亞馬遜公司對(duì)其準(zhǔn)確性提出了質(zhì)疑),美國公民自由聯(lián)盟證明Rekognition從某“公共來源”處獲取到25000張照片,并在將其與國會(huì)議員的官方照片進(jìn)行比較時(shí)誤將28人視為罪犯。而更令人震驚的是,大多數(shù)錯(cuò)誤判斷(占比38%)與有色人種相關(guān)。

            AWS公司總經(jīng)理Matt Wood于今年6月對(duì)上述結(jié)論提出了質(zhì)疑,認(rèn)為Rekognition有助于“保護(hù)兒童權(quán)益,并可用于為兒童構(gòu)建教育類應(yīng)用程序”,同時(shí)還能夠“通過多因素身份驗(yàn)證機(jī)制增強(qiáng)安全性,降低圖像的識(shí)別難度,從而用于防止包裹被盜等問題?!?/p>

            在今年8月發(fā)布的另一篇博文當(dāng)中,亞馬遜公司指出以Marinus Analytics公司為代表的眾多AWS客戶正在利用Rekognition幫助尋找落入人販子手中的受害者,并幫助其與家人團(tuán)聚。此外,非營利性組織Thorn等人權(quán)機(jī)構(gòu)也在利用這項(xiàng)技術(shù)尋找并營救遭受性虐待的兒童。

            他在博文中寫道:“根據(jù)報(bào)道,目前并沒有出現(xiàn)任何與亞馬遜Rekognition相關(guān)的執(zhí)法濫用行為。選擇利用這些新型技術(shù)的組織必須采取負(fù)責(zé)任的態(tài)度,否則將面臨受到法律處罰以及公開譴責(zé)的風(fēng)險(xiǎn)。對(duì)此,AWS一直抱以嚴(yán)肅的態(tài)度和責(zé)任?!?/p>

            但必須承認(rèn),很多參與方并非如此。

            今年9月,The Intercept網(wǎng)站發(fā)布的一篇報(bào)告顯示,IBM公司與紐約市警察局合作開發(fā)出一套系統(tǒng),允許執(zhí)法方根據(jù)膚色、頭發(fā)顏色、性別、年齡以及各種面部特征進(jìn)行人物搜索。利用紐約警察局提供的來自約50臺(tái)攝像機(jī)的“成千上萬”張照片,該人工智能方案學(xué)會(huì)了如何識(shí)別服裝顏色以及其它體貌特征。

            IBM公司的一位發(fā)言人指出,這套系統(tǒng)僅被用于“評(píng)估性目的”。但于2017年發(fā)布的IBM智能視頻分析2.0產(chǎn)品確實(shí)提供一種與此相似的攝像頭監(jiān)控功能,可以通過“亞洲人”、“黑人”以及“白人”等標(biāo)簽對(duì)拍攝目標(biāo)進(jìn)行自動(dòng)標(biāo)記。

            偏見的可能性

            除了Socher所提到的道德原則之外,也有越來越多的研究對(duì)于人臉識(shí)別技術(shù)的整體準(zhǔn)確度持懷疑態(tài)度。

            于2012年進(jìn)行的一項(xiàng)研究表明,供應(yīng)商Cognitec公司提供的面部算法在識(shí)別非裔美國人方面的表現(xiàn)要比識(shí)別白種人低5%至10%;2011年,還有研究人員發(fā)現(xiàn)中國、日本以及韓國開發(fā)出的人臉識(shí)別模型很難區(qū)分高加索人與東亞人種。今年2月,麻省理工學(xué)院媒體實(shí)驗(yàn)室的研究人員們指出,微軟、IBM與中國廠商Megvii公司的人臉識(shí)別技術(shù)在識(shí)別淺膚色女性方面錯(cuò)誤率高達(dá)7%,識(shí)別深膚色男性的錯(cuò)誤率為12%,而對(duì)深膚色女性的錯(cuò)判比例更是達(dá)到35%。

            算法出錯(cuò)的例子還遠(yuǎn)不止于此。最近調(diào)查結(jié)果顯示,倫敦大都會(huì)警察局部署的系統(tǒng)在每一次實(shí)際應(yīng)用時(shí)都會(huì)產(chǎn)生最多49次的錯(cuò)誤匹配。在去年眾議院監(jiān)督委員會(huì)關(guān)于人臉識(shí)別技術(shù)的聽證會(huì)上,美國聯(lián)邦調(diào)查局承認(rèn),其用于識(shí)別犯罪嫌疑人的算法存在高達(dá)15%的錯(cuò)誤判斷率。此外,弗吉尼亞大學(xué)的研究人員正在進(jìn)行的一項(xiàng)研究發(fā)現(xiàn),兩大著名研究圖像集——ImSitu與COCO(COCO由Facebook、微軟以及初創(chuàng)企業(yè)MightyAI共同構(gòu)建),在對(duì)體育、烹飪以及其它多種活動(dòng)的描述當(dāng)中,表現(xiàn)出明顯的性別偏見(例如購物圖像一般與女性有關(guān),而教練圖像則往往與男性關(guān)聯(lián))。

            在這方面,最臭名昭著的案例之一,無疑是2015年一位軟件工程師提交的報(bào)告——其指出谷歌照片中的圖像分類算法將非洲裔美國人判定為“大猩猩”。

            即使是美國規(guī)模最大的車載攝像機(jī)供應(yīng)商之一Axon公司的CEO Rick Smith,今年夏季也對(duì)此做出表態(tài),指出人臉識(shí)別技術(shù)對(duì)于執(zhí)法類應(yīng)用而言還不夠準(zhǔn)確可靠。

            他解釋稱,“這類技術(shù)方案還沒有做好真正通過人臉識(shí)別做出行動(dòng)決策的準(zhǔn)備。在我們看來,因?yàn)槠渲锌赡艹霈F(xiàn)的技術(shù)故障或?qū)頌?zāi)難性的后果,大家不應(yīng)急于將其部署至實(shí)際場景當(dāng)中?!?/p>

            技術(shù)層面的進(jìn)展

            過去十年以來,眾多失誤和問題的出現(xiàn)似乎令人臉識(shí)別技術(shù)的前景蒙上了一層陰影。然而,必須承認(rèn)的是,這項(xiàng)技術(shù)一直在準(zhǔn)確度以及解決偏見問題等技術(shù)性層面取得可喜的進(jìn)展。

            今年6月,通過與人工智能公平性專家們開展合作,微軟公司修改并擴(kuò)展了其用于模型訓(xùn)練的Face API數(shù)據(jù)集。Face API是一項(xiàng)微軟Azure API,主要提供用于檢測(cè)、識(shí)別及分析圖像中人臉內(nèi)容的算法。通過與膚色、性別以及年齡相關(guān)的大量新數(shù)據(jù),F(xiàn)ace API如今能夠?qū)⑸钅w色男性與女性的錯(cuò)誤判斷率降低至原本的二十分之一,對(duì)女性的錯(cuò)誤判斷率則降低為原先的九分之一。

            與此同時(shí),初創(chuàng)企業(yè)Gfycat公司也于今年表示,其將引入更為嚴(yán)格的檢測(cè)閾值,從而努力提高其人臉識(shí)別算法在判斷亞裔人士面部方面的準(zhǔn)確性。

            另外,值得一提的是,一系列新型算法偏見緩解工具的加速出現(xiàn),也在有力提高人工智能方案的公正性水平。

            今年5月,F(xiàn)acebook公司發(fā)布了Fairness Flow,該工具會(huì)自動(dòng)警告某種算法是否根據(jù)檢測(cè)目標(biāo)的種族、性別或者年齡,做出了不公平的判斷。另外,埃森哲公司也發(fā)布了一款工具包,能夠自動(dòng)檢測(cè)AI算法中存在的偏見,并幫助數(shù)據(jù)科學(xué)家降低這種偏見。微軟方面在今年5月同樣推出了自己的解決方案。谷歌公司也于今年9月發(fā)布了What-If工具,這項(xiàng)由TensorBoard網(wǎng)絡(luò)儀表板提供的偏見檢測(cè)功能,主要面向谷歌的TensorFlow機(jī)器學(xué)習(xí)框架。

            IBM公司同樣緊跟這股時(shí)代潮流,其于今年秋季發(fā)布了AI Fairness 360——這是一款基于云的全自動(dòng)化套件,能夠?yàn)锳I系統(tǒng)“提供洞察見解”以,確保對(duì)其決策與推薦進(jìn)行調(diào)整,例如通過算法調(diào)整或數(shù)據(jù)平衡等方式緩解偏見對(duì)結(jié)果造成的影響。最近,IBM Watson與云平臺(tái)小組的研究重點(diǎn),也開始放在緩解AI模型中的偏見,特別是與人臉識(shí)別相關(guān)的偏差方面。

            不過根據(jù)Smith的說法,這方面的發(fā)展道路還相當(dāng)漫長。

            他在今年早些時(shí)候發(fā)布的一篇博文中寫道:“即使解決了偏見問題,即人臉識(shí)別系統(tǒng)能夠以對(duì)所有人都公平公正的方式運(yùn)作,其中仍然存在著潛在的失敗風(fēng)險(xiǎn)。與眾多其它人工智能技術(shù)一樣,就算徹底排除到偏見性因素,人臉識(shí)別方案通常都會(huì)存在一定程度的誤差。一切工具都可用于善途或者惡途,而工具本身越強(qiáng)大,其可能帶來的收益或者損害也就越明顯。人臉識(shí)別技術(shù)給我們提出了一系列新問題,特別是在與隱私以及言論自由等基本人權(quán)保護(hù)核心相關(guān)的層面,因此,必須始終對(duì)此保持謹(jǐn)慎的心態(tài)?!?/p>



          關(guān)鍵詞: 谷歌 人臉識(shí)別

          評(píng)論


          相關(guān)推薦

          技術(shù)專區(qū)

          關(guān)閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();