<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          新聞中心

          EEPW首頁 > 智能計(jì)算 > 業(yè)界動(dòng)態(tài) > 為什么馬斯克有關(guān)AI的警告可能是正確的?

          為什么馬斯克有關(guān)AI的警告可能是正確的?

          作者: 時(shí)間:2017-08-31 來源:網(wǎng)易科技 收藏

            8月26日消息,據(jù)CNBC網(wǎng)站報(bào)道,特斯拉和SpaceX公司的首席執(zhí)行官埃隆·馬斯克(ElonMusk)曾多次表示,隨著人工智能()的應(yīng)用越來越廣泛,社會(huì)需要更加關(guān)注其安全問題。

          本文引用地址:http://www.ex-cimer.com/article/201708/363770.htm

            馬斯克最近在推特上寫道:“如果你不擔(dān)心人工智能的安全性,那么現(xiàn)在你應(yīng)該擔(dān)心了。”

            軟件解決方案公司SAP的首席學(xué)習(xí)官(CLO)珍妮·迪爾伯恩(JennyDearborn)對(duì)這觀點(diǎn)表示贊同。

            事實(shí)上,她認(rèn)為,至關(guān)重要的是要開展好有關(guān)人工智能知識(shí)以及如何更好利用這項(xiàng)技術(shù)的教育。

            她告訴CNBC:“人工智能將無處不在。這將是我們社會(huì)中最普遍的一種現(xiàn)象,而這種現(xiàn)象不會(huì)被人們直觀地看到。但它將存在一切事物的背后。”

            迪爾伯恩稱,人工智能將影響我們所做的一切,包括掃描證件、滾動(dòng)網(wǎng)頁、使用應(yīng)用程序和家庭傳感器系統(tǒng),以及日常生活的許多其他方面。結(jié)果,人工智能將不斷收集數(shù)據(jù)和個(gè)人信息。迪爾伯恩解釋說,企業(yè)可以利用這些信息,應(yīng)用算法來了解你的行為。

            她說:“我們需要利用人工智能讓人類更強(qiáng)大,而不是取代人類。我們需要讓更多的人在如何利用人工智能上發(fā)出自己的聲音,這樣我們就不會(huì)反過來被人工智能所利用。”

            但在人工智能上誰會(huì)利用我們呢?我們?yōu)槭裁匆3中⌒哪?迪爾伯恩稱,在人工智能領(lǐng)域的前沿有三家公司:谷歌、Facebook和亞馬遜。她說,(如果人類被人工智能所利用)它們“將受益最大”。

            迪爾伯恩表示:“對(duì)于人工智能滲透到人們生活的程度,人們需要有所了解。這樣,他們就不會(huì)在某天醒來說:‘我一直都是被利用的棋子’。”

            她以Fitbit等健康追蹤設(shè)備為例:一家醫(yī)療保健公司可以利用健身應(yīng)用提供的數(shù)據(jù)來了解人們的健康習(xí)慣。她說:“那么,如果有一天,對(duì)于每天步行少于1萬步的人,它決定增加他的保險(xiǎn)費(fèi)用,人們?cè)撛趺崔k?”

            迪爾伯恩認(rèn)為這是一種極端但不是不可能發(fā)生的情形。她問道:“誰來做出這個(gè)決定?”。她說,如果我們不參與有關(guān)人工智能的討論,那這些大公司將擁有全部話言權(quán)。

            她擔(dān)心,人們會(huì)為了方便起見而愉快地泄露自己的隱私。她指出:“他們說,‘我可以接受’,但如果(一家公司的所作所為)越過紅線怎么辦呢?”

            迪爾伯恩稱:“現(xiàn)在,大多數(shù)公司都比政府擁有更大的權(quán)力。”今后,會(huì)有大量關(guān)于人們隱私、個(gè)人自由和紅線的討論。因此,“開展這方面的教育非常關(guān)鍵。”

            她表示,我們應(yīng)該決定我們希望這個(gè)新經(jīng)濟(jì)會(huì)是什么樣子,了解我們自己在其中扮演的角色,參與對(duì)話并成為知情的公民。這樣,在人工智能如何“設(shè)計(jì)和以何為導(dǎo)向”上,社會(huì)大體上可以做出明智的決定。

            馬斯克有類似的觀點(diǎn),他說:“人工智能對(duì)人類文明的存在構(gòu)成了根本性的風(fēng)險(xiǎn),這與汽車事故、飛機(jī)相撞、藥物錯(cuò)配、食品安全的影響方式不同——后者只會(huì)對(duì)社會(huì)造成局部的損害,但人工智能有可能對(duì)整個(gè)社會(huì)造成威脅。”

            迪爾伯恩提出了自己的解決方案:“我們應(yīng)該教育好年輕人,讓他們對(duì)我們要去的地方持批評(píng)態(tài)度。”她支持年輕人進(jìn)入科技行業(yè),事實(shí)上,她說,對(duì)我們生活產(chǎn)生最大影響的重大決策經(jīng)常來自于科技行業(yè),而不是政府。

            她說:“如果你想從事衛(wèi)生保健行業(yè),就選擇以醫(yī)療保健為重點(diǎn)的科技類專業(yè);如果你想成為一名神經(jīng)系統(tǒng)的科學(xué)家,那就選擇以神經(jīng)系統(tǒng)其為重點(diǎn)的科技類專業(yè)。”

            迪爾伯恩補(bǔ)充說,我們最大的責(zé)任是弄清楚社會(huì)將如何利用人工智能。

            她給出了一個(gè)例子:谷歌一直在測試無人駕駛汽車。但是,如果一輛無人駕駛汽車即將發(fā)生碰撞,它必須在拯救駕駛員和撞向人群,或避開人群但讓載有駕駛員的汽車發(fā)生碰撞這兩項(xiàng)選擇做出一個(gè)數(shù)學(xué)決策,那該怎么辦?

            盡管她承認(rèn)這是一個(gè)極端的例子,迪爾伯恩稱,人們很快就必須對(duì)這類問題做出回答。因此,讓更多來自不同背景的人群參與有關(guān)人工智能開發(fā)和應(yīng)用方式的討論很重要。

            她說:“這就像創(chuàng)造一個(gè)政府結(jié)構(gòu)或社會(huì)秩序。你需要確保構(gòu)建這些系統(tǒng)的人們擁有平等的代表性和多樣性。”

            她說,現(xiàn)在的科技領(lǐng)域以白人男性為主,他們同時(shí)制定了有關(guān)我們的道德和社會(huì)原則的規(guī)則。

            迪爾伯恩稱:“在這方面,我們不能采取自由放任的方式。這些都是倫理準(zhǔn)則和紅線,不能讓營利性公司自行做出這些決定。”



          關(guān)鍵詞: AI

          評(píng)論


          相關(guān)推薦

          技術(shù)專區(qū)

          關(guān)閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();