皮膚不白,會遭到人臉識別技術(shù)的 “歧視”?
《紐約時報》近日發(fā)表文章,稱人臉識別技術(shù)的發(fā)展近來可謂突飛猛進(jìn),目前已經(jīng)有一些商業(yè)軟件可以用來識別照片中人物的性別,當(dāng)照片中的人是白人時,99%的情況下識別結(jié)果都是正確的,但如果照片中是黑人,錯誤率就比較高了。以下為原文內(nèi)容:
本文引用地址:http://www.ex-cimer.com/article/201802/375869.htm人臉識別技術(shù)在識別不同種族和性別的人臉時,效果有多大的不同呢?一項新的研究對此進(jìn)行了測量,結(jié)果表明,膚色越黑,識別率就越低。在識別黑皮膚女性時,它的錯誤率幾乎達(dá)到了35%。
MIT媒體實驗室的研究員喬伊o布蘭威尼(Joy Buolamwini)進(jìn)行的這項研究,顯示了現(xiàn)實世界中的一些偏見已經(jīng)滲透到了人工智能(AI)領(lǐng)域,因為人臉識別技術(shù)就是建立在AI之上的。
在計算機(jī)視覺技術(shù)中,顏色很重要
使用微軟、IBM和Face ++的人臉識別算法在識別黑人女性時,錯誤率高于識別白人男性。
在一組385張膚色較白的男性照片中,性別判斷的錯誤率為1%。
在一組296張膚色較白的女性照片中,性別判斷的錯誤率為7%。
在一組318張膚色較黑的男性照片中,性別判斷的錯誤率為12%。
在一組271張膚色較黑的女性照片中,性別判斷的錯誤率為35%。
在現(xiàn)代AI技術(shù)中,數(shù)據(jù)是關(guān)鍵。 用來訓(xùn)練AI的數(shù)據(jù)有多好,AI效果就會有多好。如果訓(xùn)練數(shù)據(jù)中的白人男性比黑人女性多,那么它識別黑人女性的能力就比較差。
另一項研究報告顯示,在一種獲得廣泛使用的人臉識別數(shù)據(jù)集中,75%以上的圖像都是男性,80%以上是白人。
因此這項新的研究就提出了一個問題:當(dāng)AI獲得的投資額和采用量日益增長時,AI的公平性和問責(zé)性又該怎么保證呢?
今天,商業(yè)公司正以各種方式部署人臉識別軟件,其中就包括根據(jù)社交媒體上的資料圖片來對產(chǎn)品進(jìn)行精準(zhǔn)宣傳。但是,一些公司也正在嘗試把人臉識別和其他AI技術(shù)納入到一些自動決策過程中,比如招聘和貸款決策。
喬治城大學(xué)法學(xué)院的研究人員估計,執(zhí)法部門的人臉識別網(wǎng)絡(luò)涵蓋了1.17億美國成年人的數(shù)據(jù)(警方拍攝的罪犯或嫌疑犯的面部照片),而非洲裔美國人最有可能被挑出來,因為他們在這個數(shù)據(jù)庫中占的比例格外高。
人臉識別技術(shù)受到的監(jiān)管還很少
猶他大學(xué)計算機(jī)科學(xué)教授Suresh Venkatasubramanian說:“現(xiàn)在是時候了,我們要認(rèn)真研究AI系統(tǒng)的工作方式和問題,要從社會角度向它們問責(zé)。”
之前已經(jīng)有一些計算機(jī)視覺技術(shù)犯錯的例子,顯示存在著歧視。例如在2015年,谷歌的圖像識別照片app把非洲裔美國人標(biāo)記為“大猩猩”,后來谷歌為此道了歉。
哈弗福德學(xué)院的計算機(jī)科學(xué)家索列爾o弗里德勒(Sorelle Friedler)說,專家們早就懷疑人臉識別軟件對不同人群的效果不同。
“但這是我所知道的第一個顯示存在這種不同的研究,”弗里德勒說。
28歲的布蘭威尼是非裔美國計算機(jī)科學(xué)家,曾經(jīng)歷過人臉識別偏見。她在喬治亞理工學(xué)院就讀本科時,人臉識別技術(shù)對她的白人朋友們來說效果很好,但是卻無法識別出她的臉。她當(dāng)時覺得這個缺陷在不久之后就會修復(fù)。
但是幾年后,當(dāng)她進(jìn)入MIT媒體實驗室時,又再次遇到了這個問題——只有當(dāng)她戴上白色面具后,軟件才能將她的臉識別出來。
那時,人臉識別軟件正在日益走出實驗室,進(jìn)入主流社會。
“這是個很嚴(yán)肅的問題,”她回憶說。 “是時候做點事情了。”
于是她將注意力轉(zhuǎn)向與數(shù)字技術(shù)中的偏見作斗爭。布蘭威尼現(xiàn)在在讀博,作為羅德學(xué)者和富布賴特研究員,她倡導(dǎo)“算法問責(zé)制”,致力于讓自動化決策變得更加透明、有解釋力,以及公平。
她在TED上關(guān)于“編碼偏見”的演講視頻瀏覽量已經(jīng)超過94萬次,她還創(chuàng)立了 “算法正義聯(lián)盟”,這個項目旨在增進(jìn)人們對這個問題的認(rèn)識。
對三家公司人臉識別軟件進(jìn)行的實驗
布蘭威尼將在本月一個會議上介紹一篇最新發(fā)表的論文。她為這篇論文研究了微軟、IBM和中國曠視科技這三家公司的人臉識別系統(tǒng)的性能,對它們識別不同膚色用戶的性別的效果進(jìn)行了衡量。她之所以選擇這些公司,是因為它們的人臉分析軟件提供了性別判斷功能,并且它們的代碼已經(jīng)公開發(fā)布,可以用來測試。
她發(fā)現(xiàn),這三家公司軟件的識別效果有待提高。
布蘭威尼為該測試建立了一個數(shù)據(jù)集,共有1270張人臉,使用的是女議員較多的國家的議員面部圖像,包括三個以黑皮膚為主的非洲國家,以及三個以白皮膚為主的北歐國家。
然后她根據(jù)皮膚科醫(yī)生使用的 “六點標(biāo)志體系”對非洲和北歐的這些人臉資料進(jìn)行評分,對皮膚進(jìn)行分類。相對于種族分類,醫(yī)學(xué)分類更加客觀和準(zhǔn)確。
她再對這些人臉圖像進(jìn)行性別和膚色上的取舍,然后使用三家公司的軟件來識別它們。微軟識別黑皮膚女性的錯誤率是21%,而IBM和Megvii的錯誤率則接近35%。三家公司在識別白皮膚男性時的錯誤率都低于1%。
布蘭威尼發(fā)布這項研究的成果之后。 IBM發(fā)表聲明說,該公司已經(jīng)穩(wěn)步改善了人臉分析軟件,鄭重致力于“不帶偏見”和“透明度”。IBM表示將在本月推出的軟件升級版在識別膚色較深的女性時,精確度會提高近10倍。
微軟則表示它已經(jīng)“已經(jīng)采取措施來提高人臉識別技術(shù)的準(zhǔn)確性”,并且正在投入資源,研究如何“識別、理解和消除偏見”。
布蘭威尼說,曠視科技的Face ++軟件廣泛應(yīng)用于中國的在線支付和網(wǎng)約車服務(wù),但該公司沒有回復(fù)置評請求。
布蘭威尼發(fā)布了她的數(shù)據(jù)集,供其他人使用。她稱自己的研究是“解決方案的起點,基本上是第一步”。
布蘭威尼還采取了進(jìn)一步的行動,她與IEEE(一家大型計算機(jī)專業(yè)組織)合作,成立了一個團(tuán)隊,為人臉分析軟件制定問責(zé)制和透明度標(biāo)準(zhǔn)。
她還定期與其他關(guān)注AI影響的學(xué)者、公共政策組織和慈善機(jī)構(gòu)會面。福特基金會主席達(dá)倫o沃克(Darren Walker)表示,這種新技術(shù)可能是一個“機(jī)會平臺”,但如果它復(fù)制并放大了過去的偏見和歧視,就發(fā)揮不了作用。
沃克說:“數(shù)字世界正在進(jìn)行一場公平、包容和正義之戰(zhàn)。”
評論