算法正在創(chuàng)造一個沒人能理解的代碼世界
這幾年,以今日頭條為代表的“算法分發(fā)”模式席卷全球互聯(lián)網(wǎng)行業(yè)。而各界對算法的非議也漸漸浮現(xiàn),有的認為它“計算不準”,有的認為它“惡意推薦”,甚至還出現(xiàn)了“算法技術(shù)應(yīng)退出時代舞臺”的論調(diào)。
本文引用地址:http://www.ex-cimer.com/article/201809/391505.htm事實上,對科技公司來說,算法是一把雙刃劍,一方面在驅(qū)動其業(yè)績增長方面立下了汗馬功勞,另一方面卻“后患無窮”。以今日頭條為例,該公司幾乎完全憑借算法,快速超越了傳統(tǒng)門戶的人工編輯模式,優(yōu)勢極為明顯;但在判斷內(nèi)容質(zhì)量,發(fā)現(xiàn)傳播風(fēng)險方面,算法卻還處于非常初級的階段,不太能指望得上。
總的來說,隨著算法的發(fā)展,這個代碼疊加的技術(shù)正逐漸創(chuàng)造一個沒人能理解的世界......
2018年3月18日,悲劇發(fā)生了,這也是科技人士所擔(dān)心的。那天晚上,一輛Uber無人車在自動駕駛的狀態(tài)下行駛,突然檢測到前方有障礙物出現(xiàn)。一系列雷達和激光雷達傳感器探測到的數(shù)據(jù)讓機載算法開始計算,假設(shè)障礙物保持不動,車速穩(wěn)定在43英里/小時,那現(xiàn)在二者的距離只需6秒。但是道路中的物體很少保持靜止,于是更多的算法開始搜索可識別生物實體的數(shù)據(jù)庫,以尋找一個模型來推出一個完美的解決方案。
起初,計算機空白了幾秒,隨后決定與障礙物“碰面”希望它能自行離開。然而,到最后一秒,該車才清楚的知道,這是一位推著自行車的女士。在這種情況下,汽車想要繞過去,但因為禁止自行采取規(guī)避行動,計算機只能將控制權(quán)交還人類。遺憾的是,安全員正在開小差,悲劇就這樣發(fā)生了:49歲的Elaine Herzberg在車禍中去世。這件事也給科技界的留下了兩個值得反思的問題:這種算法造成的悲劇是不可避免的嗎?我們應(yīng)該如何應(yīng)對這些事件?
“在某些方面,我們失去了控制權(quán)。當(dāng)程序進入代碼,代碼進入算法,然后算法開始創(chuàng)建新算法時,它會越來越不受人類控制,軟件也就進入了一個沒人能理解的代碼世界?!笔遣皇锹犉饋砗荏@悚,事實也會如此。這句話出自Ellen Ullman之口,她是自20世紀70年代以來的一位杰出的專業(yè)程序員,也是為數(shù)不多的幾位出版過關(guān)于編程的書的人。
“人們可能會說,‘那Facebook呢?他們創(chuàng)造并使用算法,還會進行改進?!@不是Facebook的運作方式。研究員設(shè)置算法,它們學(xué)習(xí),改變和運行自己。Facebook定期介入,但他們真的無法控制這些算法,對特殊的算法而言,它們不僅僅是自主運行,還會調(diào)用數(shù)據(jù)庫,進入深層操作系統(tǒng),等等?!?/p>
什么是算法?
如今,很少有哪種技術(shù)會比算法更受歡迎,但算法究竟是什么呢?從根本上說,算法是一個小而簡單的事情,即用于自動處理數(shù)據(jù)的規(guī)則。如果a發(fā)生了,那么執(zhí)行b;如果沒發(fā)生,那就執(zhí)行c。這是經(jīng)典計算的“if / then / else”邏輯。核心上,計算機程序是這類算法的捆綁,為它們投遞處理數(shù)據(jù)。
不過,近年來算法出現(xiàn)了一種很模棱兩可的定義,指任何大型、復(fù)雜的決策軟件系統(tǒng),根據(jù)一組給定的標準(或“規(guī)則”),獲取數(shù)據(jù)輸入并快速評估。這徹底改變了醫(yī)學(xué)、科學(xué)、交通、以及通信領(lǐng)域,讓人們的生活在各個方面變得更好。
直到2016年,我們對算法有了新的思考。像Facebook和谷歌這樣的公司開始以客觀的承諾為算法辯護,認為它可以通過數(shù)學(xué)分離和缺乏模糊情感來權(quán)衡一系列條件?;诖耍@種算法決策擴展到了發(fā)放貸款、保釋、福利、工作面試以及其他任何需要選擇的事情上。
現(xiàn)在的我們不再能接受這種對算法的“推銷”。凱西·奧尼爾(Cathy O'Neil)在其著作《數(shù)學(xué)破壞武器》(Weapons of Math Destruction)中表示,對于人類的偏見,算法不僅會鞏固還會放大,而不是消除。對此,她呼吁對任何能直接影響公眾的系統(tǒng)進行“算法審計”(algorithmic audits),這是一個明智的想法,不過對科技行業(yè)不是一件好事,因為算法是他們的支撐,他們最不愿做的就是透明化。
好消息是這場戰(zhàn)斗正在進行中,壞消息是人們的注意力都集中在人工智能的遙遠承諾和威脅上,幾乎沒人注意到我們進入了算法革命的新階段。由奧尼爾和其他人所創(chuàng)造的算法是不透明但可預(yù)測的,我們將這些算法稱為“dumb”,它們能根據(jù)人類定義的參數(shù)來完成工作。
而結(jié)果的質(zhì)量取決于編程的思想和技巧。其終極目的便是人工智能或AGI。一個智能機器將能夠基于直覺(我們可能認為是經(jīng)驗和知識的積累)質(zhì)疑自己的計算質(zhì)量。谷歌DeepMind創(chuàng)建的AlphaGo就是一個很好的例子。事實上,在某些特定任務(wù)中,計算機已經(jīng)遠遠優(yōu)于人類,但要與人類的能力相比媲美,還需要時間。
現(xiàn)實生活中的危險
回到之前Uber無人車發(fā)生事故的原因。目前正在測試的自動駕駛汽車可能包括1億行代碼,并且鑒于沒有程序員可以預(yù)測真實世界道路上的所有可能情況,他們必須學(xué)習(xí)并接收不斷更新。我們?nèi)绾伪苊庠诖舜a環(huán)境中發(fā)生沖突,尤其是算法可能還需要保護自己免受黑客攻擊的時候?
二十年前,George Dyson在他的經(jīng)典著作《電腦生命天演論》(Darwin Among the Machines)中預(yù)測了今天發(fā)生的大部分事情。他表示問題在于我們正在構(gòu)建超出控制范圍的系統(tǒng)。人們總是相信,如果一個系統(tǒng)是確定的(根據(jù)固定規(guī)則行動,這是一個算法的定義),它就是可預(yù)測的,并且預(yù)測也是可控的。實際上,這兩個假設(shè)都是錯誤的。
與以前的電子機械系統(tǒng)不同,新算法無法進行詳盡的測試。除非我們擁有超級智能機器為我們做這件事,否則我們就是在鋌而走險。因此,從目前的情況看,重點是機器學(xué)習(xí)。我們都知道,今年早些時候,Uber自動駕駛汽車出現(xiàn)了致死事故,因為算法在對行人分類時猶豫不決。這是由于編程不佳,算法培訓(xùn)不足還是拒絕接受技術(shù)的局限性造成的?真正的問題是我們可能永遠不會知道答案。
新南威爾士大學(xué)的人工智能教授Toby Walsh表示,“我們最終會完全放棄編寫算法,因為未來機器能比以我們做得更好。從這個意義上說,軟件工程可能是一個垂死的職業(yè)。它將被機器接管?!贝送?,他還指出,這會讓人們學(xué)習(xí)編程變得更加重要,因為隨著我們越來越疏離編程,就會越覺得它的影響超出了我們的能力。另外,倫理在科技領(lǐng)域來說,是最重要的。畢竟,哪里有選擇,哪里就是道德所在的地方。
相反的觀點是,一旦程序出現(xiàn)問題,整個程序群體就可以被重寫或更新,同一種情況就不會再發(fā)生了,而不像人類,重復(fù)錯誤的傾向可能更會誤導(dǎo)機器。盡管如此,雖然從長遠來看自動化應(yīng)該更安全,但我們現(xiàn)有的侵權(quán)法體系需要重新定制,這需要有意或過失的證明。
其實,上文描述的大多數(shù)問題,也都在尋找解決方案。從長遠來看,會有更多的人猜測,考慮到我們越來越依賴的算法系統(tǒng)的規(guī)模,復(fù)雜性和相互依賴性,當(dāng)前的編程方法已不再適用。對此,部分航空航天工業(yè)采用了一種較新的被稱為“基于模型的編程”的方法,其中機器完成大部分編碼工作并且能夠隨時進行測試。
然而,基于模型的編程可能不是萬能的靈丹妙藥。它不僅使人類進一步遠離這一過程,而且人類也無法從代碼本身推斷出極端行為,即使是在使用大型復(fù)雜系統(tǒng)構(gòu)建的情況下也是如此。當(dāng)我們等待技術(shù)上的答案來解決算法問題時,或許采用一些預(yù)防措施才是最重要的。
評論