<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          新聞中心

          EEPW首頁(yè) > 消費(fèi)電子 > 業(yè)界動(dòng)態(tài) > 微軟CEO談人工智能、算法責(zé)任以及Tay黑化的教訓(xùn)

          微軟CEO談人工智能、算法責(zé)任以及Tay黑化的教訓(xùn)

          作者: 時(shí)間:2016-11-08 來(lái)源:網(wǎng)絡(luò) 收藏

            在納德拉設(shè)想的未來(lái)中,聊天機(jī)器人將大行其道。

          本文引用地址:http://www.ex-cimer.com/article/201611/339839.htm

            正迅速轉(zhuǎn)型,自我定位為的領(lǐng)導(dǎo)者。

            周一(9月26日),該公司首席執(zhí)行官薩蒂亞·納德拉(Satya Nadella)站在舞臺(tái)上發(fā)表了年內(nèi)關(guān)于(AI)的第二場(chǎng)主題演講。

            從云計(jì)算服務(wù)到Microsoft Word,他重申了要在旗下各項(xiàng)業(yè)務(wù)中注入某種技術(shù)的承諾。

            在納德拉走下舞臺(tái)之后,筆者獲得了這次采訪機(jī)會(huì),他向我們介紹了在開發(fā)人工智能助手方面的進(jìn)展情況。

            今年早些時(shí)候,你開始談到我們需要打造透明的AI、道德的AI以及負(fù)責(zé)任的AI。自那以后你都做了哪些工作,具體是什么?

            納德拉:我想,我做的第一件事情,甚至于在微軟的內(nèi)部,就是提出原則以及喚起開發(fā)者的意識(shí),正如我們對(duì)用戶界面所做的那樣。

            我們打造的機(jī)器智能是在幫助人類嗎,是在增強(qiáng)人類嗎?

            微軟開發(fā)的所有AI產(chǎn)品,在我第一次拿到手時(shí),首先都會(huì)問(wèn):

            它增強(qiáng)了什么?

            做了哪些賦權(quán)?

            用了哪些我們可以在算法上負(fù)起責(zé)任的訓(xùn)練方法?

            這些都是可以具體落實(shí)的要求。不過(guò),我并不想簡(jiǎn)單地把這些要求當(dāng)成某種業(yè)績(jī)指標(biāo)類的東西。

            落實(shí)這些要求,關(guān)鍵在于設(shè)計(jì)上的敏感性,在于我們的開發(fā)人員、我們的設(shè)計(jì)師以及我們的產(chǎn)品選擇。

            一家公司想要提供優(yōu)秀的用戶體驗(yàn),都要提到設(shè)計(jì)原則,那么對(duì)于優(yōu)秀的人工智能,它的設(shè)計(jì)原則是什么呢?

            這個(gè)問(wèn)題,極大地吸引我去思考:

            當(dāng)你在訓(xùn)練一個(gè)深度神經(jīng)網(wǎng)絡(luò)時(shí),負(fù)起算法責(zé)任(algorithmic accountability)意味著什么?

            當(dāng)你們?cè)谧鰣D像識(shí)別那樣的技術(shù)時(shí),開發(fā)者依賴于你們的服務(wù),如果某個(gè)地方出了錯(cuò),那可能在他們那里造成不良影響。對(duì)于客戶和最終用戶,你們是否有必要提供一種開放性?

            納德拉:我們無(wú)法知道所有的用例。

            人們將會(huì)使用這些認(rèn)知性API,不管是圖像識(shí)別還是語(yǔ)音識(shí)別,那取決于他們正在做的事情。

            我們不會(huì)成為“檢查員”或者編輯。

            就以圖像識(shí)別為例。

            如果我們的圖像識(shí)別API本身就存在一些偏見(jiàn)——那可能是因?yàn)槿狈?shù)據(jù),或者是特征選擇出了問(wèn)題,又或者是我們構(gòu)建的卷積神經(jīng)網(wǎng)絡(luò)偏離了設(shè)計(jì)——我完全認(rèn)為,我們必須負(fù)起責(zé)任,就像我們?yōu)槟切┸浖┒磽?dān)負(fù)責(zé)任一樣。

            因?yàn)?,說(shuō)到底,雖然我們談?wù)撝斯ぶ悄?,但人工智能賴以工作的參?shù)最終還是由人類工程師定義的。

            并不是說(shuō)我們想要所有事情時(shí)時(shí)刻刻都做到完美,但如果有人發(fā)現(xiàn)某個(gè)地方存在錯(cuò)誤,那么我們就會(huì)對(duì)它進(jìn)行重新訓(xùn)練。

            再來(lái)談?wù)劻奶鞕C(jī)器人,我們可以讓一個(gè)聊天機(jī)器人大體上理解用戶在說(shuō)什么,但語(yǔ)言生成仍然是一個(gè)很大的研究課題。我們?nèi)绾尾拍茏屃奶鞕C(jī)器人說(shuō)的話聽(tīng)上去更智能呢?

            納德拉:這個(gè)問(wèn)題可以分為多個(gè)層次。

            教導(dǎo)計(jì)算機(jī)學(xué)會(huì)人類語(yǔ)言是我們的終極任務(wù)之一。

            因此,對(duì)我來(lái)說(shuō),事情要一步一步地來(lái)做。在AI學(xué)會(huì)自由運(yùn)用人類語(yǔ)言之前,首先要讓它理解你來(lái)我往的對(duì)話。

            只不過(guò),實(shí)現(xiàn)語(yǔ)言生成是一個(gè)通用人工智能(AGI)問(wèn)題;它并不是一個(gè)應(yīng)用人工智能問(wèn)題。

            你必須掌握一種通用人工智能和通用學(xué)習(xí)模型,它要能充分理解人類知識(shí)和詞匯中一切事物的語(yǔ)義。

            只要是會(huì)遇到歧義和錯(cuò)誤,就需要思考如何讓人類介入進(jìn)來(lái),以及如何升格到由人來(lái)做出選擇。在我看來(lái),這就是人工智能產(chǎn)品最講究的地方。

            如果有一定比例會(huì)出現(xiàn)歧義和錯(cuò)誤,那你就必須要有處理異常情況的能力。

            可是這首先要能夠檢測(cè)出那個(gè)異常來(lái)。

            幸運(yùn)的是,在人工智能中,你擁有信心和概率分布的支持。

            所以,你必須利用所有這一切讓人類介入進(jìn)來(lái)。

            就拿客戶支持來(lái)說(shuō),我們不認(rèn)為虛擬助理能夠回答所有問(wèn)題。

            這種事可能需要升格到讓人類客服代表進(jìn)行處理,這時(shí)候聊天機(jī)器人就從主角變成了配角。

            客服代表回答問(wèn)題,然后虛擬助理藉由強(qiáng)化學(xué)習(xí)從中汲取經(jīng)驗(yàn)教訓(xùn)。

            所以,那樣的過(guò)程將會(huì)幫助我們做得越來(lái)越好。

            但是,要做到這一點(diǎn),我們需要在通用學(xué)習(xí)技術(shù)上取得突破性進(jìn)展。

            當(dāng)人們都在努力爭(zhēng)取實(shí)現(xiàn)這些突破時(shí),你如何保持對(duì)聊天機(jī)器人這種技術(shù)的興趣?你怎樣屏蔽掉輿論炒作帶來(lái)的干擾?”

            納德拉:這就是所謂的產(chǎn)品選擇,它是一點(diǎn)點(diǎn)的藝術(shù),加一點(diǎn)點(diǎn)的設(shè)計(jì),再加上一大堆的人工智能能力,但這就是我們學(xué)到的東西。

            我的意思是,即便是通過(guò)微軟小娜(Cortana),我們也解決了很多難題,并且意識(shí)到很多人喜歡聽(tīng)小娜講笑話。

            于是我們想:“哇哦,那很酷,讓我們?yōu)橛脩糇龀鲞@項(xiàng)功能吧?!?/p>

            這不僅僅在于技術(shù),而是我們必須找到技術(shù)與設(shè)計(jì)之間的那個(gè)能夠讓它們共同發(fā)展的黃金回路。

            你是否認(rèn)為存在一種讓所有業(yè)務(wù)都擁有聊天機(jī)器人的設(shè)計(jì)?它是否適用于每一項(xiàng)業(yè)務(wù)?

            納德拉:我想我們會(huì)找到答案的。

            我的確認(rèn)為,有些特定的業(yè)務(wù)和特定的業(yè)務(wù)流程,比如買保險(xiǎn),是非常適合聊天機(jī)器人的,可以通過(guò)設(shè)計(jì)實(shí)現(xiàn)。

            事實(shí)上,監(jiān)管要求是這樣的,當(dāng)你購(gòu)買保險(xiǎn)時(shí),使用聊天機(jī)器人的效果要比自己通過(guò)移動(dòng)應(yīng)用或網(wǎng)站摸索好得多。所以,那至少可以算作一個(gè)用例。

            我們正從這些開發(fā)者身上學(xué)到很多東西。

            什么時(shí)候保護(hù)人工智能免受攻擊或反向工程變成了一個(gè)問(wèn)題?

            納德拉:如今這已經(jīng)是一個(gè)問(wèn)題。

            我從(聊天機(jī)器人)Tay身上得到的最大收獲之一就是,你需要打造出能夠抵御惡意攻擊的人工智能。

           

            觀察Twitter上發(fā)生的事情,那很有趣,但舉例來(lái)說(shuō),我們?cè)谥袊?guó)沒(méi)有遇到同樣的事情。

            聊天機(jī)器人在中國(guó)進(jìn)行的社交對(duì)話是不同的,如果你把它置于美國(guó)的語(yǔ)料庫(kù)當(dāng)中,結(jié)果就不一樣了。

            當(dāng)然,Tay還遇到了集中攻擊。

            就像如今開發(fā)軟件要能經(jīng)受住DDOS攻擊,你也要能夠經(jīng)受住語(yǔ)料庫(kù)攻擊——這種攻擊試圖污染語(yǔ)料庫(kù),對(duì)AI進(jìn)行誤導(dǎo),從而讓AI學(xué)習(xí)模型選中錯(cuò)誤的東西。

            我們正想方設(shè)法應(yīng)對(duì)這些挑戰(zhàn)。

            我們(開發(fā)Tay)是作為一個(gè)學(xué)習(xí)模型的原型產(chǎn)品。

            如今,考慮到現(xiàn)有的媒體新聞周期,原型和正式發(fā)布的版本之間已經(jīng)區(qū)別不大。

            當(dāng)然,這是有意為之;如果你以一種公開的方式做這件事,毋庸置疑大家都能看到。在某些層面上,結(jié)果令人震驚。

            但與此同時(shí),我們并沒(méi)有說(shuō)自己想要推出某個(gè)完美無(wú)缺的東西。

            它不像Windows 10的發(fā)布,它屬于那種研究項(xiàng)目,而不是用來(lái)賺錢的產(chǎn)品。

            而且,盡管有那種種“反應(yīng)”,它確實(shí)幫到了我們,也起到了很好的號(hào)召作用,讓我們更好地為自己所談?wù)摰脑O(shè)計(jì)原則打好基礎(chǔ),負(fù)起更大的算法責(zé)任,思考質(zhì)量保證意味著什么?以及思考你是基于公開語(yǔ)料庫(kù)發(fā)布產(chǎn)品,還是先發(fā)布到一個(gè)不同的語(yǔ)料庫(kù)中并進(jìn)行觀察?

            這些都是我們正在學(xué)習(xí)和改進(jìn)的技術(shù)。



          關(guān)鍵詞: 微軟 人工智能

          評(píng)論


          相關(guān)推薦

          技術(shù)專區(qū)

          關(guān)閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();