<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          新聞中心

          EEPW首頁 > 業(yè)界動(dòng)態(tài) > 霍金最后著作對(duì)未來飽含憂思:人工智能或有自己意志

          霍金最后著作對(duì)未來飽含憂思:人工智能或有自己意志

          作者: 時(shí)間:2018-10-19 來源:科技日?qǐng)?bào) 收藏

            10月16日,已故著名物理學(xué)家斯蒂芬·霍金最后的著作《重大問題簡(jiǎn)答》一書出版,涉及他對(duì)科學(xué)與社會(huì)所面臨的最大問題的思考,包括“人類是否會(huì)一直在地球上生存下去?(可能不會(huì))”“時(shí)間旅行是否可能?(仍無法排除可能性)”等;還有對(duì)諸如地球面臨的最嚴(yán)重威脅、“超人”種群以及外太空是否存在智慧生命、如何開拓太空殖民地等問題進(jìn)行的最后預(yù)測(cè),這些預(yù)測(cè)飽含了霍金對(duì)人類未來深深的憂思。

          本文引用地址:http://www.ex-cimer.com/article/201810/393111.htm

            據(jù)美國(guó)石英財(cái)經(jīng)網(wǎng)站15日?qǐng)?bào)道,霍金在書中稱,未來可能形成自己的意志——與我們?nèi)祟愊鄾_突的意志;一種利用基因工程超越同伴的“超人”種群將占據(jù)主導(dǎo)地位,這可能毀滅人類。

            人類的進(jìn)化沒有邊界

            石英財(cái)經(jīng)網(wǎng)站16日?qǐng)?bào)道,在整本書中,霍金對(duì)人類在地球上的未來持悲觀態(tài)度。政治不穩(wěn)定、氣候變化以及核暴力的可能性,使人類在地球上發(fā)展的持續(xù)性變得難以為繼。

            霍金認(rèn)為,地球面臨的頭號(hào)威脅是小行星碰撞,類似那種導(dǎo)致恐龍滅絕的碰撞。他寫道:“可是,我們(對(duì)此)無法防御?!?/p>

            更直接的威脅是氣候變化?!昂Q鬁囟壬仙龑⑷诨舯冢尫懦龃罅慷趸?。雙重效應(yīng)可能導(dǎo)致我們的氣候類似于金星,氣溫達(dá)到250℃。”

            霍金認(rèn)為,核聚變發(fā)電會(huì)賦予我們清潔能源,不排放污染,不引起全球變暖。

            在“我們?nèi)绾嗡茉煳磥怼闭鹿?jié)中,霍金不同意人類處于“進(jìn)化巔峰”這一觀念。在他看來,人類的進(jìn)化和努力沒有邊界。

            他認(rèn)為人類未來有兩種選擇:首先,探索其他可供人類居住的替代星球,他在不止一章中提倡太空殖民,包括殖民月球、火星或星際行星等;其次,積極利用來改善我們的世界。

            將形成自己的意志

            霍金還強(qiáng)調(diào)了規(guī)范管理人工智能的重要性。他指出,“未來人工智能可能形成自己的意志,與我們?nèi)祟愊鄾_突的意志”。應(yīng)當(dāng)制止可能出現(xiàn)的自動(dòng)武器軍備競(jìng)賽,如果發(fā)生類似于2010年股市閃電崩盤那樣的武器崩盤,后果將不堪設(shè)想。

            他在書中寫道:“對(duì)人類來說,超級(jí)智慧的人工智能的出現(xiàn)不是福就是禍,二之必居其一。人工智能的真正危險(xiǎn)并非在于惡意,而在于能力。超級(jí)智慧的人工智能終將極其擅長(zhǎng)實(shí)現(xiàn)目標(biāo)。如果這些目標(biāo)與我們的目標(biāo)不一致,那我們就麻煩了。”

            他主張政策制定者、科技行業(yè)和普通大眾認(rèn)真研究人工智能的道德影響。

            “超人”種群將占據(jù)主導(dǎo)地位

            據(jù)英國(guó)《星期日泰晤士報(bào)》15日?qǐng)?bào)道,霍金最大的擔(dān)憂是,富人不久將能夠編輯自己及其子女的DNA,提高記憶和疾病免疫力。

            石英財(cái)經(jīng)網(wǎng)站報(bào)道,霍金認(rèn)為,未來1000年的某個(gè)時(shí)刻,核戰(zhàn)爭(zhēng)或環(huán)境災(zāi)難將“嚴(yán)重破壞地球”。而到那時(shí),“我們的天才種族可能已經(jīng)找到了擺脫地球束縛的方法,因此能夠戰(zhàn)勝災(zāi)難”。不過,地球上的其他物種可能做不到。

            這些成功逃離地球的人很可能是新的“超人”,他們利用諸如CRISPR(俗稱“基因剪刀”)這樣的基因編輯技術(shù)超過其他人,科學(xué)家可利用此類基因編輯技術(shù)修復(fù)有害基因,并加入其他基因。

            霍金還表示,即使政治家設(shè)法用法律禁止這一做法,但這批人會(huì)不顧禁止基因工程的法律約束,提高自己的記憶力、疾病抵抗力和預(yù)期壽命,這將對(duì)世界其他人群構(gòu)成危機(jī)。

            在《星期日泰晤士報(bào)》15日發(fā)表的文章節(jié)選中,霍金稱:“我敢肯定,本世紀(jì)之內(nèi)人們將找到修改智力和天資的辦法。政治家可能會(huì)制定禁止人類基因工程的法律,但肯定有人抵擋不了改進(jìn)人類特征——比如記憶力、疾病抵抗力和壽命的誘惑。”

            他指出:“一旦出現(xiàn)這種超人,未能通過基因改造來提高自身的人必將遇到重大政治問題,他們無力競(jìng)爭(zhēng),也許會(huì)變得可有可無,甚至?xí)^種。不過,未來將出現(xiàn)一種不斷加速改進(jìn)的自我設(shè)計(jì)人類,如果這種人類種族能不斷設(shè)法重新設(shè)計(jì)自己,很可能擴(kuò)散開來,殖民其他行星和星球。”

            有關(guān)為何尚未發(fā)現(xiàn)智慧生命或是智慧生命沒有造訪地球這類問題,霍金承認(rèn)有各種各樣的說法,他對(duì)此持謹(jǐn)慎樂觀的態(tài)度,但他首選的解釋是:人類“忽視了”外太空智慧生命的形式。



          關(guān)鍵詞: 人工智能

          評(píng)論


          相關(guān)推薦

          技術(shù)專區(qū)

          關(guān)閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();