人工智能應用和隱私保護如何兼得?
在人們越來越看重個人隱私和信息安全的當下,人工智能技術是把雙刃劍。如何讓人工智能在保障用戶隱私安全的軌道上有序發(fā)展,正成為國內外共同關注的焦點和難點。
本文引用地址:http://www.ex-cimer.com/article/201906/401660.htm5月16日,美國舊金山市政府通過《停止秘密監(jiān)察條例》法案,禁止舊金山的政府機構使用人臉識別技術,并將“靠人臉識別技術獲得某些信息”列為違法行為。這無疑是一種隱私保護的措施,但也引起諸多爭議。
國內某著名計算機視覺創(chuàng)業(yè)公司一位要求匿名的副總裁在接受《中國科學報》采訪時反問:“舊金山已經不再是一座能讓人感到安全的城市,人臉識別作為提高安全系數(shù)的基礎工具,反而禁止使用,不知道什么技術手段可以保證安全?”
人工智能和隱私安全不可兼得?
有意思的是,最近亞馬遜公司的股東以壓倒性多數(shù)票,否決了該公司停止向政府機構出售其人臉識別技術的一項提議,只有2.4%的股東投票贊成這項禁令。
“這兩件事情放在一起看非常有意思?!鄙鲜龈笨偛谜f,這說明圍繞個人隱私、群體安全問題,對于人臉識別技術的使用需要一個平衡。“這個平衡,就是一個好的規(guī)則規(guī)范——不僅要去規(guī)范人臉識別技術企業(yè),還要去規(guī)范使用這些技術的機構?!?/p>
實際上,人臉識別技術所創(chuàng)造的價值是被認可的。該副總裁認為,假使只是因為不確定使用人臉識別技術能夠帶來什么后果就直接禁用,那么這只能是一種短視或者短期行為。
“在滿足某些條件的情況下,這種技術當然是可以應用的?!彼f道,“作為發(fā)明和使用新技術的人,都要去認真思考這些問題,并且一起努力促使新規(guī)范的形成,而不是直接禁止掉?!?/p>
隨著大數(shù)據(jù)的使用、算力的提高和算法的突破,人工智能正變得無處不在。由此帶來的問題是,人們一方面享受人工智能帶來的“紅利”,另一方面則面臨隱私被當做“資源”過度和非法使用的困境。如何應對人們隱私“裸奔”的挑戰(zhàn)變得越發(fā)嚴峻。
技術手段:區(qū)塊鏈技術被派上場
以“人工智能+醫(yī)療”為例,人工智能技術在醫(yī)療健康領域的應用潛力巨大,但也面臨著數(shù)據(jù)的問題——用以訓練人工智能模型的大量醫(yī)學數(shù)據(jù),可能是圖像、基因組、電子健康記錄等這些非常敏感的信息。
基于醫(yī)院的數(shù)據(jù)進行訓練的人工智能算法有望獲得診斷、預防疾病和甚至治療疾病的能力。但在許多國家,由于法律原因,醫(yī)療記錄無法輕易共享并提供給算法。這使得利用人工智能在醫(yī)學圖像或數(shù)據(jù)中發(fā)現(xiàn)疾病的研究通常只能涉及相對較小的數(shù)據(jù)集,極大地制約了技術應用前景。
美國加州大學伯克利分校一家創(chuàng)業(yè)公司“綠洲實驗室”(Oasis Labs),致力于探索利用云計算和區(qū)塊鏈等技術確保用于研究的醫(yī)療數(shù)據(jù)等信息不被泄露或濫用。目前,斯坦福大學醫(yī)學院已經批準綠洲實驗室與相關的研究人員一道在該院開展實驗,測試他們的技術對解決上述兩難問題是否有效果。
綠洲實驗室首先將患者的個人數(shù)據(jù)存儲在一款合作設計的安全芯片上,并保存在云端。外部人員——希望以數(shù)據(jù)集訓練算法的工程師們,可以在該系統(tǒng)(安全芯片+云端)下,利用數(shù)據(jù)運行算法并輸出結果。該系統(tǒng)也會在接收到數(shù)據(jù)訪問請求時,觸發(fā)基于區(qū)塊鏈的軟件上的智能合約系統(tǒng),智能合約不僅會記錄數(shù)據(jù)的使用方式,還能檢查機器學習計算是否被正確執(zhí)行。
綠洲實驗室聯(lián)合創(chuàng)始人兼加州大學伯克利分校教授Dawn Song介紹說,該技術還可以推及人工智能在其他領域的應用,例如財務記錄、個人購買習慣或網(wǎng)頁瀏覽數(shù)據(jù)。不過他表示,在探索其他領域之前,他們的計劃是先推動此技術在醫(yī)療領域的應用。
盡管綠洲實驗室的技術探索展現(xiàn)出了潛力,但美國弗吉尼亞大學專門研究機器學習與安全問題的專家埃文斯仍持保守態(tài)度。他指出,在安全硬件中存儲數(shù)據(jù)也有失敗的風險。一旦硬件制造方遭遇攻擊,它所處理的數(shù)據(jù)就會面臨風險。并且,現(xiàn)在也沒有證據(jù)證明,區(qū)塊鏈一定就是可靠的技術。
立法約束:讓合規(guī)應用有章可循
在沒有好的技術措施解決問題之前,使用法規(guī)法律保護隱私和個人信息安全,是全球通用的做法。
2018年5月,歐盟頒布的被稱為“史上最嚴”的《通用數(shù)據(jù)保護條例》(GDPR),就對企業(yè)獲取及使用數(shù)據(jù)的方式進行了嚴格的限定。GDPR要求經營者告知并獲得客戶同意才可記錄用戶搜索等記錄,且不能使用模糊、冗長的語言政策來獲取用戶數(shù)據(jù)使用許可等。并且,GDPR對違法企業(yè)的懲處力度也是空前的。
中國科學院自動化研究所研究員曾毅認為,GDPR值得我國借鑒。雖然GDPR在實施初期,遭到很多企業(yè)質疑且難以推行,但隨著企業(yè)接受并按要求落實,他們將得到更多用戶的認可和信任。
曾毅告訴《中國科學報》,如果人工智能系統(tǒng)不能盡力確保個人數(shù)據(jù)的安全性,不但無法贏得用戶信賴,而且將觸犯相關法律。人工智能的研發(fā)者、服務提供者、使用者都應充分了解有關個人數(shù)據(jù)安全的行業(yè)共識、規(guī)范、管理辦法、法律,以促進人工智能的健康發(fā)展。
“加快立法的同時,還應考慮我國國情,保護人工智能的發(fā)展‘土壤’。”國內智能設備體系安全服務提供商同余科技創(chuàng)始人袁開國對《中國科學報》舉例說,比如要明確數(shù)據(jù)的所有權屬于用戶,企業(yè)不能非法使用、兜售用戶數(shù)據(jù);但如果企業(yè)是為了更好地服務用戶,在經過用戶授權允許下,可以對用戶數(shù)據(jù)進行深層次分析,明確數(shù)據(jù)的使用權。
“隱私保護是對公民基本人權的保護,也影響著國民經濟的發(fā)展?!敝袊鐣茖W院哲學研究所研究員、北京協(xié)和醫(yī)學院生命倫理學研究中心學術委員會主任邱仁宗在接受《中國科學報》采訪時表示,隨著技術的發(fā)展,人們的各種信息可以被輕易獲取。
“我反對這種未經授權的‘人肉搜索’。”邱仁宗表示,應該認真研究GDPR,開展由人工智能專家、倫理學家、公眾代表、監(jiān)管人員參與的個人數(shù)據(jù)保護研討會,盡快制定我國的專門法律法規(guī)。
評論