有了安全邊界 人工智能才能有序發(fā)展
如果把對人工智能的態(tài)度分為樂觀派和憂慮派,近日去世的著名理論物理學家霍金一定屬于后者。最近幾年,他頻頻提醒人們注意人工智能的威脅,批評人工智能的無節(jié)制發(fā)展。
本文引用地址:http://www.ex-cimer.com/article/201803/377221.htm九三學社中央科技委委員張妍也深以為然?!叭斯ぶ悄馨l(fā)展的腳步無法阻擋,‘安全’就顯得尤為重要?!彼f,“我們不是杞人憂天,要知道,防范的成本比補救的成本低很多?!?/p>
2018年兩會期間,九三學社向全國政協(xié)十三屆一次會議提交了《關(guān)于推動人工智能安全發(fā)展》的中央提案,提出應著力構(gòu)建安全發(fā)展戰(zhàn)略,將人工智能安全發(fā)展提升到與人工智能科技研發(fā)、成果應用、市場推廣同等重要的位置。
沒有藩籬,發(fā)展或會失控
安全是個寬泛的概念,在九三學社中央科技委委員王仕看來,它指的是“可控性”。 他們提出了“五橫一縱”的概念:“五橫”指的是法律、倫理、標準、科技創(chuàng)新和產(chǎn)業(yè)應用;“一縱”指的是科普?!鞍踩睉摑B透在這經(jīng)緯網(wǎng)中。
“推薦系統(tǒng)是人工智能的重要應用場景。資訊類APP可以無限制向你推薦你感興趣的內(nèi)容,強化你的固有觀點,無論對錯;電商類APP可以無限制誘導你去‘剁手’,就算超出你的消費能力也無所謂?!蓖跏伺e的例子,公眾已并不陌生。如果算法只是一味迎合人的需求,沒有法律或道德的約束與引導,那么最終結(jié)果,很可能并不利于個人或社會的健康發(fā)展。
王仕也從事人工智能相關(guān)工作。他告訴科技日報記者,做語音開發(fā)時,如果產(chǎn)品要進入美國市場,所有代碼就必須遵守美國兒童隱私保護法律。“這是為了防止智能音箱傳播兒童色情等不良內(nèi)容。”但在國內(nèi),目前尚無相關(guān)硬性規(guī)定。
全國人大代表、科大訊飛董事長劉慶峰也認為,“人工智能領域的頂尖科學家和頂尖企業(yè)的價值觀,對人工智能的未來發(fā)展至關(guān)重要”。比如,科大訊飛的語音合成技術(shù)已經(jīng)可以逼真合成出不同人的聲音,但他們至今不敢隨便對外公布這一技術(shù),“就是怕出現(xiàn)各種詐騙”。
當數(shù)據(jù)成為重要資源,如果對掌握數(shù)據(jù)的人沒有明確約束,對可以自我學習的人工智能沒有明確邊界,張妍憂慮道,“會不會讓壞人更‘壞’?”
有了規(guī)矩,前路方是坦途
去年國務院公布《新一代人工智能發(fā)展規(guī)劃》,但并沒有將安全作為基本原則之一。九三學社中央建議,應制定《人工智能安全發(fā)展綱要》,有序制定人工智能安全發(fā)展的法律法規(guī)和倫理道德準則。采取“政府主導、專家主體、公眾參與、社會協(xié)同”方式,深入研究人工智能安全發(fā)展戰(zhàn)略,針對不同環(huán)節(jié)和應用場景,明晰不同主體的責任、權(quán)利和義務,制定有關(guān)的政策、措施和法規(guī)、標準,劃定人工智能安全發(fā)展的邊界。
“對人工智能的科研人員,也要進行知識普及,用倫理道德加以約束?!睆堝f,“在市場推廣和應用環(huán)節(jié),還要建立安全評估和市場準入機制?!?/p>
在法律方面,劉慶峰也專門從數(shù)據(jù)角度給出了自己的建議。他指出,應該制定《數(shù)據(jù)安全保護法》,實行大數(shù)據(jù)分級安全保護機制,加強對各行業(yè)領域大數(shù)據(jù)安全治理,并規(guī)范大數(shù)據(jù)運營企業(yè)的資質(zhì)要求。“涉及到國計民生的敏感數(shù)據(jù),一定要設置嚴格安全等級。這些數(shù)據(jù)一旦泄露,對人工智能和大數(shù)據(jù)產(chǎn)業(yè)的發(fā)展就是極大的沖擊和毀滅?!?/p>
除了倫理和法律,九三學社中央還在建議中指出,應該加快科學普及。
神化人工智能,會讓公眾產(chǎn)生不必要的恐慌;貶低人工智能,又讓公眾對人工智能不敢信任。做好科普和引導,消除誤解,才可讓人類與人工智能和諧相處。
“人工智能是造福還是為禍,核心就是要看社會法律體系能否迅速健全,在法律體系框架下,人工智能倫理和人文引導能否到位。”劉慶峰強調(diào)。
評論