算法當(dāng)?shù)?!為什么人類和人工智能越來越像?/h1>
編者按:算法告訴我們該如何思考,而這正在改變我們。隨著計算機(jī)學(xué)會如何模仿,我們是否正開始變得越來越像它們呢?
算法告訴我們該如何思考,而這正在改變我們。隨著計算機(jī)學(xué)會如何模仿,我們是否正開始變得越來越像它們呢?
本文引用地址:http://www.ex-cimer.com/article/201901/397078.htm 硅谷正越來越多地預(yù)測人們會如何回復(fù)電子郵件,會對某人的Instagram照片做出什么樣的反應(yīng),越來越多地決定人們有資格享受哪些政府服務(wù),不久以后,即將到來的谷歌語音助理Google
Assistant將能夠為人們實時打電話預(yù)約理發(fā)師。
從醫(yī)院到學(xué)校,再到法庭,我們幾乎將算法帶到了所有的地方。我們被各種自動化系統(tǒng)所環(huán)繞。幾行代碼即可告訴我們應(yīng)該看什么媒體內(nèi)容,與誰約會,甚至告訴司法系統(tǒng)應(yīng)該把誰送進(jìn)監(jiān)獄。
我們把如此之多的決策權(quán)和控制權(quán)交給這些程序,是對的嗎?
我們之所以癡迷于數(shù)學(xué)程序,是因為它們能對一系列錯綜復(fù)雜的問題給出快速而準(zhǔn)確的答案。機(jī)器學(xué)習(xí)系統(tǒng)已經(jīng)被應(yīng)用于我們的現(xiàn)代社會的幾乎每一個領(lǐng)域。
算法是如何影響我們的日常生活的?在一個不斷變化的世界里,機(jī)器正在快速而出色地學(xué)習(xí)人類的行為方式,我們喜歡些什么,討厭些什么,以及什么是對我們最好的。我們現(xiàn)在生活在由預(yù)測性技術(shù)主宰的空間里。
通過分析整理海量的數(shù)據(jù),給我們提供即時且相關(guān)的結(jié)果,算法極大地改變了我們的生活。多年來,我們讓公司們收集了大量的數(shù)據(jù),讓公司變得能夠給我們提供各種建議,能夠決定什么是對我們最有利的。
谷歌母公司Alphabet或亞馬遜等公司一直在為各自的算法灌輸從我們身上收集到的數(shù)據(jù),并指導(dǎo)人工智能利用收集到的信息來適應(yīng)我們的需求,變得更像我們。然而,隨著我們習(xí)慣了這些便捷的功能以后,我們的說話和行為方式是否會變得更像一臺計算機(jī)呢?
“算法本身并不公平,因為構(gòu)建模型的人定義了成功。”——數(shù)據(jù)科學(xué)家凱茜·奧尼爾(Cathy O’Neil)
按照當(dāng)前這樣的技術(shù)發(fā)展速度,我們不可能不去想象在不久的將來,我們的行為會變得由算法引導(dǎo)或支配。事實上,這已經(jīng)在發(fā)生了。
去年10月,谷歌為旗下郵箱服務(wù)Gmail推出了名為“Smart
Reply”的智能回復(fù)功能,意在幫助你編寫回信或者快速回復(fù)。此后,該助理功能在互聯(lián)網(wǎng)上掀起了一場風(fēng)暴,很多人都批評它,稱其量身定制的建議具有侵害性,讓人看起來像機(jī)器,甚至有人認(rèn)為,它的回復(fù)最終可能會影響我們的交流方式,甚至可能改變電子郵件的規(guī)范。
算法的主要問題在于,隨著它們變得如此巨大而復(fù)雜,它們會開始給我們當(dāng)前的社會帶來負(fù)面影響,會危及民主。隨著機(jī)器學(xué)習(xí)系統(tǒng)在社會的許多領(lǐng)域變得越來越普遍,算法會統(tǒng)治世界,接管我們的思想嗎?
現(xiàn)在,讓我們來看看Facebook的做法。早在2015年,他們的新版News
Feed信息流的設(shè)計初衷就是篩選用戶的訂閱內(nèi)容,使其變成個性化的報紙,讓用戶能夠看到與他們之前曾點(diǎn)贊、分享和評論的內(nèi)容相關(guān)的東西。
“個性化”算法的問題在于,它們會將用戶放入“過濾氣泡”或者“回聲室”。在現(xiàn)實生活中,大多數(shù)人不太可能接受他們覺得困惑、討厭、不正確或可恨的觀點(diǎn)。就Facebook的算法而言,該公司給予用戶他們想要看到的東西,因此,每個用戶的信息流都變成一個獨(dú)特的世界,它們本身就是一個獨(dú)特的現(xiàn)實。
過濾氣泡使得公開論證變得越來越困難,因為從系統(tǒng)的視角來看,信息和虛假信息看起來完全一樣。正如羅杰?麥克納米(Roger
McNamee)最近在《時代》(Time)雜志上所寫的那樣,“在Facebook上,事實不是絕對的;它們是一種選擇,最初留給用戶和他們的朋友決定的一種選擇,但隨后被算法放大,以便促進(jìn)傳播和用戶的互動。”
過濾氣泡制造了一種錯覺:每個人都相信我們在做著同樣的事情,或者有同樣的習(xí)慣。我們已經(jīng)知道,在Facebook上,算法因為加劇了兩極化而讓這一問題進(jìn)一步惡化,最終損害了民主。有證據(jù)表明,算法可能影響了英國公投或2016年美國總統(tǒng)大選的結(jié)果。
“Facebook的算法推崇極端信息,而非中性信息,這會讓虛假信息凌駕于真實信息之上,讓陰謀論凌駕于事實之上?!薄韫韧顿Y人羅杰·麥克納米(Roger
McNamee)
在無時無刻都充斥著大量信息的當(dāng)今世界,篩選信息對一些人來說是一個巨大的挑戰(zhàn)。如果使用得當(dāng),人工智能可能會增強(qiáng)人們的在線體驗,或幫助人們迅速處理不斷增長的內(nèi)容資訊負(fù)荷。然而,要能夠正當(dāng)運(yùn)作,算法需要關(guān)于真實世界中發(fā)生的事情的準(zhǔn)確數(shù)據(jù)。
公司和政府需要確保算法的數(shù)據(jù)不存在偏見,且是準(zhǔn)確的。由于沒有什么是完美無瑕的,存在自然偏差的數(shù)據(jù)估計已經(jīng)存在于許多的算法中,這不僅給我們的網(wǎng)絡(luò)世界帶來了危險,也給現(xiàn)實世界帶來了危險。
倡導(dǎo)實施更強(qiáng)有力的監(jiān)管框架是必要的,這樣我們就不會陷入技術(shù)上的蠻荒。
我們也應(yīng)該非常謹(jǐn)慎于我們賦予算法的能力。人們正變得越來越擔(dān)心算法帶來的透明度問題,算法做出的決策和流程背后的倫理意味,以及影響人們工作生活的社會后果。例如,在法庭上使用人工智能可能會增加偏見,造成對少數(shù)族裔的歧視,因為它會考慮到“風(fēng)險”因素,比如人們所在的社區(qū)以及與犯罪的關(guān)聯(lián)性。這些算法可能會犯下災(zāi)難性的系統(tǒng)性錯誤,把現(xiàn)實中無辜的人類送進(jìn)監(jiān)獄。
“我們有失去人性的危險嗎?”
安全專家布魯斯·施奈爾(Bruce Schneier)在他的書《點(diǎn)擊這里殺死所有人》(Click Here to Kill
Everybody)中寫道,“如果我們讓計算機(jī)為我們思考,而底層的輸入數(shù)據(jù)是糟糕的,那么它們會進(jìn)行糟糕的思考,而我們可能永遠(yuǎn)都不會察覺?!?/p>
英國倫敦大學(xué)學(xué)院的數(shù)學(xué)家漢娜·弗萊(Hannah
Fry)帶領(lǐng)我們進(jìn)入了一個計算機(jī)可以自由操作的世界。在她的新著作《世界你好:在算法的時代里做個人類》(Hello World: Being Human In
the Age of Algorithms)中,她認(rèn)為,作為公民,我們應(yīng)該更多地關(guān)注鍵盤后面的人,即那些編寫算法的人。
“我們不必創(chuàng)造一個由機(jī)器來告訴我們該做什么或者該如何思考的世界,盡管我們最終很可能會進(jìn)入這樣一個世界。”她說道。在整本書中,她多次問道:“我們有失去人性的危險嗎?”
現(xiàn)在,我們還沒有到人類被排除在外的階段。我們在這個世界上的角色還沒有被邊緣化,在很長一段時間內(nèi)都不會。人類和機(jī)器可以結(jié)合各自的優(yōu)勢和劣勢一起運(yùn)作。機(jī)器有缺陷,會犯和我們一樣的錯誤。我們應(yīng)該注意我們交出了多少的信息,放棄了多少的能力,畢竟算法現(xiàn)在是人類固有的一部分,它們不會在短時間內(nèi)消失。
算法告訴我們該如何思考,而這正在改變我們。隨著計算機(jī)學(xué)會如何模仿,我們是否正開始變得越來越像它們呢?
本文引用地址:http://www.ex-cimer.com/article/201901/397078.htm硅谷正越來越多地預(yù)測人們會如何回復(fù)電子郵件,會對某人的Instagram照片做出什么樣的反應(yīng),越來越多地決定人們有資格享受哪些政府服務(wù),不久以后,即將到來的谷歌語音助理Google Assistant將能夠為人們實時打電話預(yù)約理發(fā)師。
從醫(yī)院到學(xué)校,再到法庭,我們幾乎將算法帶到了所有的地方。我們被各種自動化系統(tǒng)所環(huán)繞。幾行代碼即可告訴我們應(yīng)該看什么媒體內(nèi)容,與誰約會,甚至告訴司法系統(tǒng)應(yīng)該把誰送進(jìn)監(jiān)獄。
我們把如此之多的決策權(quán)和控制權(quán)交給這些程序,是對的嗎?
我們之所以癡迷于數(shù)學(xué)程序,是因為它們能對一系列錯綜復(fù)雜的問題給出快速而準(zhǔn)確的答案。機(jī)器學(xué)習(xí)系統(tǒng)已經(jīng)被應(yīng)用于我們的現(xiàn)代社會的幾乎每一個領(lǐng)域。
算法是如何影響我們的日常生活的?在一個不斷變化的世界里,機(jī)器正在快速而出色地學(xué)習(xí)人類的行為方式,我們喜歡些什么,討厭些什么,以及什么是對我們最好的。我們現(xiàn)在生活在由預(yù)測性技術(shù)主宰的空間里。
通過分析整理海量的數(shù)據(jù),給我們提供即時且相關(guān)的結(jié)果,算法極大地改變了我們的生活。多年來,我們讓公司們收集了大量的數(shù)據(jù),讓公司變得能夠給我們提供各種建議,能夠決定什么是對我們最有利的。
谷歌母公司Alphabet或亞馬遜等公司一直在為各自的算法灌輸從我們身上收集到的數(shù)據(jù),并指導(dǎo)人工智能利用收集到的信息來適應(yīng)我們的需求,變得更像我們。然而,隨著我們習(xí)慣了這些便捷的功能以后,我們的說話和行為方式是否會變得更像一臺計算機(jī)呢?
“算法本身并不公平,因為構(gòu)建模型的人定義了成功。”——數(shù)據(jù)科學(xué)家凱茜·奧尼爾(Cathy O’Neil)
按照當(dāng)前這樣的技術(shù)發(fā)展速度,我們不可能不去想象在不久的將來,我們的行為會變得由算法引導(dǎo)或支配。事實上,這已經(jīng)在發(fā)生了。
去年10月,谷歌為旗下郵箱服務(wù)Gmail推出了名為“Smart Reply”的智能回復(fù)功能,意在幫助你編寫回信或者快速回復(fù)。此后,該助理功能在互聯(lián)網(wǎng)上掀起了一場風(fēng)暴,很多人都批評它,稱其量身定制的建議具有侵害性,讓人看起來像機(jī)器,甚至有人認(rèn)為,它的回復(fù)最終可能會影響我們的交流方式,甚至可能改變電子郵件的規(guī)范。
算法的主要問題在于,隨著它們變得如此巨大而復(fù)雜,它們會開始給我們當(dāng)前的社會帶來負(fù)面影響,會危及民主。隨著機(jī)器學(xué)習(xí)系統(tǒng)在社會的許多領(lǐng)域變得越來越普遍,算法會統(tǒng)治世界,接管我們的思想嗎?
現(xiàn)在,讓我們來看看Facebook的做法。早在2015年,他們的新版News Feed信息流的設(shè)計初衷就是篩選用戶的訂閱內(nèi)容,使其變成個性化的報紙,讓用戶能夠看到與他們之前曾點(diǎn)贊、分享和評論的內(nèi)容相關(guān)的東西。
“個性化”算法的問題在于,它們會將用戶放入“過濾氣泡”或者“回聲室”。在現(xiàn)實生活中,大多數(shù)人不太可能接受他們覺得困惑、討厭、不正確或可恨的觀點(diǎn)。就Facebook的算法而言,該公司給予用戶他們想要看到的東西,因此,每個用戶的信息流都變成一個獨(dú)特的世界,它們本身就是一個獨(dú)特的現(xiàn)實。
過濾氣泡使得公開論證變得越來越困難,因為從系統(tǒng)的視角來看,信息和虛假信息看起來完全一樣。正如羅杰?麥克納米(Roger McNamee)最近在《時代》(Time)雜志上所寫的那樣,“在Facebook上,事實不是絕對的;它們是一種選擇,最初留給用戶和他們的朋友決定的一種選擇,但隨后被算法放大,以便促進(jìn)傳播和用戶的互動。”
過濾氣泡制造了一種錯覺:每個人都相信我們在做著同樣的事情,或者有同樣的習(xí)慣。我們已經(jīng)知道,在Facebook上,算法因為加劇了兩極化而讓這一問題進(jìn)一步惡化,最終損害了民主。有證據(jù)表明,算法可能影響了英國公投或2016年美國總統(tǒng)大選的結(jié)果。
“Facebook的算法推崇極端信息,而非中性信息,這會讓虛假信息凌駕于真實信息之上,讓陰謀論凌駕于事實之上?!薄韫韧顿Y人羅杰·麥克納米(Roger McNamee)
在無時無刻都充斥著大量信息的當(dāng)今世界,篩選信息對一些人來說是一個巨大的挑戰(zhàn)。如果使用得當(dāng),人工智能可能會增強(qiáng)人們的在線體驗,或幫助人們迅速處理不斷增長的內(nèi)容資訊負(fù)荷。然而,要能夠正當(dāng)運(yùn)作,算法需要關(guān)于真實世界中發(fā)生的事情的準(zhǔn)確數(shù)據(jù)。
公司和政府需要確保算法的數(shù)據(jù)不存在偏見,且是準(zhǔn)確的。由于沒有什么是完美無瑕的,存在自然偏差的數(shù)據(jù)估計已經(jīng)存在于許多的算法中,這不僅給我們的網(wǎng)絡(luò)世界帶來了危險,也給現(xiàn)實世界帶來了危險。
倡導(dǎo)實施更強(qiáng)有力的監(jiān)管框架是必要的,這樣我們就不會陷入技術(shù)上的蠻荒。
我們也應(yīng)該非常謹(jǐn)慎于我們賦予算法的能力。人們正變得越來越擔(dān)心算法帶來的透明度問題,算法做出的決策和流程背后的倫理意味,以及影響人們工作生活的社會后果。例如,在法庭上使用人工智能可能會增加偏見,造成對少數(shù)族裔的歧視,因為它會考慮到“風(fēng)險”因素,比如人們所在的社區(qū)以及與犯罪的關(guān)聯(lián)性。這些算法可能會犯下災(zāi)難性的系統(tǒng)性錯誤,把現(xiàn)實中無辜的人類送進(jìn)監(jiān)獄。
“我們有失去人性的危險嗎?”
安全專家布魯斯·施奈爾(Bruce Schneier)在他的書《點(diǎn)擊這里殺死所有人》(Click Here to Kill Everybody)中寫道,“如果我們讓計算機(jī)為我們思考,而底層的輸入數(shù)據(jù)是糟糕的,那么它們會進(jìn)行糟糕的思考,而我們可能永遠(yuǎn)都不會察覺?!?/p>
英國倫敦大學(xué)學(xué)院的數(shù)學(xué)家漢娜·弗萊(Hannah Fry)帶領(lǐng)我們進(jìn)入了一個計算機(jī)可以自由操作的世界。在她的新著作《世界你好:在算法的時代里做個人類》(Hello World: Being Human In the Age of Algorithms)中,她認(rèn)為,作為公民,我們應(yīng)該更多地關(guān)注鍵盤后面的人,即那些編寫算法的人。
“我們不必創(chuàng)造一個由機(jī)器來告訴我們該做什么或者該如何思考的世界,盡管我們最終很可能會進(jìn)入這樣一個世界。”她說道。在整本書中,她多次問道:“我們有失去人性的危險嗎?”
現(xiàn)在,我們還沒有到人類被排除在外的階段。我們在這個世界上的角色還沒有被邊緣化,在很長一段時間內(nèi)都不會。人類和機(jī)器可以結(jié)合各自的優(yōu)勢和劣勢一起運(yùn)作。機(jī)器有缺陷,會犯和我們一樣的錯誤。我們應(yīng)該注意我們交出了多少的信息,放棄了多少的能力,畢竟算法現(xiàn)在是人類固有的一部分,它們不會在短時間內(nèi)消失。
評論