從“AI向好”到“AI向善”,呼喚以人為本的AI
2023年10月28日,在沈陽舉辦的CNCC2023(2023年中國計算機大會)上,美國斯坦福大學終身名譽教授James Landay做了特邀報告。他認為AI系統對人類社會帶來巨大的影響,但僅僅認識到這些影響還不夠,要真正地以人為本。為此,AI 的開發必須要考慮三個層次:以用戶為中心,以社區為中心,以社會為中心?!耙杂脩魹橹行摹笔强紤]最終用戶的需求和能力,“以社區為中心”使社區參與到設計的早期,“以社會為中心”預測并調節其在社會層面的潛在影響。成功的以人為本的AI 需要除專業技術人員以外的多學科團隊的早期參與,包括設計、社會科學/ 人文學科、醫學和/或法律等相關領域的專家及社區成員。
1 AI的正面和負面影響
AI(人工智能)是強大的工具。如果你設計AI系統,你會希望構建能產生積極社會影響的AI。
當前AI正在許多領域席卷世界,從使用AlphaFold等工具進行科學發現,到我們所有人每天用來翻譯業務文檔或與世界各地同事交流的自然語言處理,甚至影響到時尚界——時裝公司正在使用AI 來確定下一季的款式,以及如何優化供應鏈,以節省材料。
在過去的一年里,生成式AI的出現更引發了風暴。ChatGPT為你的問題提供答案,Midjourney可以繪畫,Copilot幫助你輕松編程。
盡管我們每天都能看到AI 的身影,但AI不一定全是好事,AI操縱著當今的社會智能,在操縱社交網絡——人們為之悲喜,或更糟糕的是,AI引發的事件甚至終結了民主。例如在美國,有AI對犯罪進行有偏見判決的報道,《紐約時報》2017 年5 月報道稱,有人《被軟件程序的秘密算法送進監獄》。ProPublica(注:總部設在紐約市曼哈頓區的非盈利性公司,主要為公眾利益進行調查報道)于2016 年5 月報道稱,全國各地都在使用軟件來預測未來的罪犯,這在某種程度上會出現有偏見的判決(筆者注:例如模型如果有偏見或錯誤,會導致結果偏差)。
2 AI應關注其對人類和社會的影響
根據AI 會導致積極和消極的原因,大約五年前,Landay 團隊在斯坦福大學“ 以人為本的AI 研究所(HAI)”提出了發展AI 的三個原則。
首先,AI 應該關注其對人類社會的影響。其次,AI 應該受到人類智慧的啟發。人類大腦仍然是宇宙中重要的智慧之源。
第三,AI 應該增強而不是取代人類的能力。無可置疑,AI 將重塑全球勞動力的組成結構,因此,政府及相關機構應該為這場劇變做好準備。
關于第三點,需要強調的是,AI 可以增強人類的能力,因此可以采用特定的設計來創造和利用AI,幫助人們更好地完成任務,而不是簡單地考慮替代。
現在,有許多負面的社會影響。例如一些專家在有影響力的領域使用AI,但AI 會失敗?!堵槭±砉W院技術評論》2021 年7 月30 日曾報道,《已經制造了數百個AI 工具來捕捉新冠病毒,但它們都沒幫上忙》?!禥uartz》發布了標題為《AI 還有很長的路要走,醫生才能相信》的文章,稱有時專家在一些有影響力的領域(例如放射科)使用AI,但可能會錯誤地解決了問題。
因此,認識到AI 的正面影響并不足夠。在促進AI的良性發展中,還要考慮更多方面。經??吹竭@種類型:專家試圖在某一領域使用AI,但有時會失敗。因為這項技術并不是單一存在的,這種情況一再發生。例如就像剛才《麻省理工學院技術評論》文章中所看到的那樣,人們已經建立了數百個AI 工具,但沒有一個有真正的幫助。在放射科也是如此,斯坦福放射科醫生和AI 研究員Curt Langlotz 認為:AI 會取代放射科醫生嗎?這是一個錯誤的問題。正確的答案是:使用AI 的放射科醫生將取代不使用AI 的放射科醫生。究其原因,這通常是由于研究人員用來測算的理想數據集與現實世界有所差異。目前最大的挑戰是:我們不知道如何設計AI 系統來增強人們的能力,并產生積極的社會影響。
3 如何設計AI系統來增強人們的能力
相信還有更好的方法,即:以人為本的AI。我們如何對AI 進行積極控制,以避免其帶來的負面影響?
為此,我們需要設計和分析這三個層次的系統:用戶、社區和社會。這樣做才能創造積極的技術。
● 以用戶為中心。我們首先需要有一個以用戶為中心的流程,需要整合自己的設計和人機交互的技術,以滿足用戶的需求。
● 以社區為中心。但僅僅擁有以用戶為中心的設計流程是不夠的。正如上述危害性的案例所述,為法官創建了一個很好的AI系統,但它只理解數據,忽視了社區影響:原告和被告的家人、律師等。我們需要了解他們來自不同社區的問題,以及他們面臨的結構性障礙。所以在量刑之前,我們不僅要訪問和觀察相關的人,也可以使用AI 系統??梢?,以用戶為中心和以社區為中心之間存在著互動。但即使這樣還不夠。
● 以社會為中心。如果我們建立的這個系統變得更加普遍,就像美國許多州和地方使用的指導系統一樣,將會發生什么?在美國的監獄系統中,有很大的比例是非洲裔美國人,如何防范種族歧視。我們需要建立一個預測系統,當建立的系統影響力巨大時,可能會發生什么,并從一開始就嘗試設計調解社會影響。
預測上述影響并不容易。這就是為什么要擁有一支跨學科的團隊,而不僅僅是計算機科學家,這一點尤為重要。我們需要來自醫學、法律、社會科學/ 人文科學或環境科學等領域的專家決定我們將要建立的系統。這些專家必須從一開始就是AI 項目的合作伙伴,而不是在項目接近尾聲時添加進來,以預測可能的危害。
Landay將舉兩個例子來說明以用戶、區域、社會為中心的AI系統。第一個主要來自大眾媒體的資訊,對自動駕駛汽車的探討。第二個是Landay 自己研究項目團隊,展示他們過去所做的項目的分析方法,該項目是如何讓建筑減輕人們的壓力。
4 案例1:自動駕駛汽車對人類行為的影響
特斯拉等汽車公司都有自動駕駛的愿景。這個愿景是否像我們所相信的那樣?一二十年后,也許這些汽車公司會讓你相信這一點。但Landay 想說的是,在過去三四十年里,大多數高校和行業研究人員就在做這件事。當Landay 還是卡內基梅隆大學的一名大四學生時,有一天,看到一輛卡車使用自動駕駛技術緩慢駛過匹茲堡校園旁的雪莉公園。
● 以用戶為中心。目前的自動駕駛汽車的研發主要是以用戶為中心的。
● 以社區為中心。需要關心其他交通道路參與者無論是對于其他自動駕駛汽車還是非自動駕駛汽車,以及與行人、騎車人的互動。例如《財富》曾報道,《汽車保險監管機構警告稱,自動駕駛汽車可能在夜間無法發現行人》。
● 以社會為中心。我們需要考慮自動駕駛汽車對城市或地區的影響。也許影響并沒有那么積極。例如,《記者》2019 年5 月21 日的署名文章《自動駕駛汽車:天堂還是地獄?》認為,自動駕駛汽車帶來了更大的交通流量、傷亡和浪費,因為開車行駛的里程越來越遠,人們住在更遠的地方,車里也空空蕩蕩的。
Landay聯想到自己采用自動駕駛汽車的未來場景:他住在斯坦福大學——在舊金山以南約40 英里處。他下周在舊金山有個會議。他打算開車去,但不想花75美元停車,如果他有一輛自動駕駛汽車,可能會讓它自己開回家,或者讓它停到舊金山南部更便宜的停車場。
或者盡管他在斯坦福大學工作,但附近房價高,也許他會搬到兩個小時車程以外的加州中部山谷,那里的費用要低得多,每天早上他將花兩個小時在路上,他可以睡在自動駕駛汽車里,或者在路上準備教學的課件。
可見,自動駕駛汽車會導致人們行為的變化。
《每日得克薩斯人》2022 年8 月20 日文章稱,《得州大學研究人員發現自動駕駛汽車功能如何抵消道路安全》,稱至少在得克薩斯州,從休斯頓、達拉斯、圣安東尼奧到奧斯汀的三角形區域中,自動駕駛汽車會因人類行為的變化而導致交通堵塞。因為旅行者正在向更遠的地方遷移,人均出行距離從14 英里上升到16 英里。隨著旅客轉向自動駕駛/ 地面交通,該地區內航空公司的客運量將下降82%。
這里并不是在探討自動駕駛汽車對或不對。而是認為如果按照這種以“用戶、社區、社會”為中心的方法分析,從一開始,我們就嘗試這樣的考慮:也許自動駕駛汽車或自動駕駛公交車仍然是正確的解決方案,但我們也可以考慮如何建設一個更好的公共交通系統。
不僅在美國,當我們來到北京、巴黎、倫敦……返回家中,火車、公共汽車和地鐵等公共交通系統給我們留下了深刻的印象。
如果我們一開始只針對以用戶為中心的設計和分析,您可能會在一開始就忽略公共交通系統。這涉及權力問題,誰有權選擇?我們如何利用社會資源?現在這種權力非常集中,尤其集中在AI 和少數有能力制定大模型語言或行業規則的大公司中。
5 案例2:2030年的工作場所
多年來,Landay團隊在做的一個項目是如何幫助建筑物中的人們保持健康。
盡管自動化和數字化不斷發達,但許多美國人仍感到壓力很大,沒有靈感,久坐不動,被邊緣化。而越來越多的人意識到建筑會影響健康,因為人們大部分時間是呆在建筑物中。據美國環保局的數據,美國人87%的時間在家或辦公室等室內建筑里。因此,研究在建筑物中的減壓方式很有必要。
Landay團隊研究了建筑物的特征對人的壓力的影響,如材料、光、聲音等,并思考如何重新設計空間,使其能感知人們的狀態,并進行動態調整,以安慰身處其中的人。
1)未來的建筑會和人互動
Landay展示了5年前拍攝的視頻片段。未來的辦公室可以察覺到工作者的壓力,并調整空間的環境,例如調整燈光或音樂。
在公共空間,可看到墻上有一個動態的鏡子(筆者注:認為是顯示屏),指引我沿著顯示的方向回家。因為屏幕上的花在風中飄揚,所以我可能很好奇,想看看那里發生了什么?,F在我走向了樓梯,而不是電梯的方向,這鼓勵我多鍛煉(如圖1)。
圖1
2)研究材料、光、聲對人的影響
以往的研究常是小規模、短期、基于自測的,研究者可能會讓實驗者在他們的舊建筑里填寫一份調查,然后在他們搬進新建筑一個月后再次填寫調查。
Landay團隊采取了更加綜合的科學步驟。首先建立了建筑屬性如何影響人的理論,然后進行動態適應的設計,最后需要了解人們保護隱私的程度,以及他們愿意向建筑透露什么,以獲得幫助和益處。
Landay團隊花費了1年時間,請了400人參與實驗,系統地研究了不同的建筑特征。例如桌椅的材質是人造板材還是天然木材,還考察了自然光、人造光(無窗場景)的影響,色彩是單一的(白色)還是多色等(圖2)。
圖2
在測試減壓方面,通過攝像頭,或者受試者戴著手環和蘋果手表來檢測壓力。用各種方法測試進行實驗,其中一種方法是在兩分鐘內通知參與者要做一個演講,實驗者將記錄參與者的積極和消極情緒。
測試的結論是:天然材料有助于最大程度地減少參與者的壓力。
如圖3,可以看到左圖的綠色柱條(注:代表天然材料)降低了壓力。右圖可見綠色會下降到更低的水平,并更快地恢復。
圖3
對于自然光和人造光,Landay團隊也得到了類似的結果。這個研究報告詳細地刊登在《建筑與環境》期刊2022年224卷,作者是Douglas 等人(如圖2)。
如果要進行更大規模的研究,可能會在一個真正的辦公室里用更復雜的方式來測試。
3)產生壓力的因素
在測試壓力方面,考察了收入、財產、創造力、體育活動和環境行為因素(圖4)。這里忽略了生產力因素,因為這方面其他的研究已很多。你可以想想亞馬遜購物網倉庫的工人,如果他們包裝得不夠快,就會被解雇。
圖4
研究需要從真實的辦公室獲得信息,而不打擾他們的工作。因此,可以利用從環境獲得的建筑數據,例如多少人進出房間、能源的消耗等。同樣,也可以使用自測報告,可能向實驗者的手表、手機上一天多次發送問卷,詢問壓力有多大。第三種方法,也可以使用實驗者的手機、手表等個人設備的數據,但這種類型的數據包含很多個人信息,所以也需要考慮隱私問題。Landay團隊用這些數據來衡量人的壓力級別。所有的研究都是經常進行的。并需要確保數據是安全的,只有合適的人才能看到。
4)溝通與隱私保護的結合
智能空間的一個很大問題是如何與個人用戶溝通,我們信任和使用哪些數據? Landay 團隊工作的很大一部分涉及人所擁有的物理數字空間?,F在,產品溝通問題的一種方式是使用隱私政策,但這些政策毫無用處。例如,有許多常見的產品的隱私政策,但有多少人閱讀了這些隱私條款?很少有人這么做。因為這些內容并不是為了向你傳達正在發生的事情,純粹是走法律流程。
以上是以用戶為中心的隱私考慮。
我們如何溝通智能空間中正在發生的事情?
圖5是一位藝術家所創作的形狀像人眼(注:會轉動)的網絡攝像頭(Eyecam),它在觀察你及周圍的環境。這是一種越來越常見的溝通方式。例如,也許你的手機或筆記本電腦上有一個小綠燈,可以將你的錄音發到云端審查。
圖5
Alias是一種可教育的“寄生蟲”(如圖6)。你可以把它放在你的智能揚聲器/ 語音助手上。只有當你給出你定義的關鍵詞時,它才會解鎖,使得谷歌、亞馬遜、蘋果或百度等語音助手無法監聽你的談話,以保護你的隱私。
所以在與AI溝通時,我們希望把溝通和保護隱私這兩種方式結合起來。
圖6
該如何做到呢?我們的隱私有可能泄露,這讓我們感到不安。關于社區和社會層面,Landay舉辦了幾場研討會,探討了隱私風險、價值權衡和潛在的創新干預。
Landay團隊進行了大量測試,參與者多種多樣,有不同的生活經歷。在含義設計階段,人們試圖為如何保護這些隱私威脅建立原型。在行動回合中,人們進行團隊合作,一個團隊構成威脅,另一個團隊來對抗威脅。這必須通過多次迭代來學習,使其更像是一個合作的游戲,而不是一個競爭的游戲,才能獲得好的結果。
最近的實驗是在2023年9月,這個項目用于舊金山一個有13名老年人參加的研討會,以探索基于語音的AI技術如何影響他們。在考慮價值觀背景、殘障程度和種族之前,他們被分為三組。首先給他們一些設備之后,詢問他們的家庭、健康狀況,并與他們的醫生溝通。主醫生可以在屏幕上看到一些內容,護士也有類似的訪問能力。受試者可以與家人和朋友進行不同程度的互動。如果有問題,受試者可以按下藍色按鈕(例如感到恐慌),它會調節你的呼吸,使你放松、平靜。紅色按鈕:停止一切。黃色:恢復。
以上部分研究了用戶和社區層面。
在社會層面,Landay團隊將會考察誰將有進入這些建筑的特權:有隱形殘疾或邊緣化身份的人,他們不想透露;任何進入建筑物的人(例如送貨員、訪客)或在外面工作的食品攤販;建筑住戶、管理人員等。這次研討會確實讓Landay 團隊能夠進入更高層次的分析。
6 結束語
AI的許多偉大應用幫助人們更好地完成任務,幫你成為更好的學習者、更好的設計師或更好地照顧身體。關鍵是將用戶、社區和社會的需求置于智能界面設計的中心。在這三個層次上進行設計是至關重要的。
我們現在還處于這方面的早期階段,已找到了正確的設計流程。如果在你的工作中,只需把你的以用戶為中心或社區為中心提升一個級別,在對人們產生積極影響的方面,你的AI 系統將會做得更好。
講者介紹:James Landay是斯坦福大學工程學院的計算機科學教授。他是斯坦福大學以人為本的AI研究所(HAI)的聯合創始人和副所長。他之前是康奈爾理工大學、華盛頓大學和加州大學伯克利分校的終身教職員工。他還是西雅圖英特爾實驗室主任和NetRaker的聯合創始人。在北京微軟亞洲研究院休假期間,他在清華大學教了一個學期的書。Landay在加州大學伯克利分校獲得了EECS(電氣工程與計算機科學)學士學位,在卡內基梅隆大學獲得了計算機科學碩士和博士學位。他是ACM(美國計算機協會)SIGCHI(計算機-人交互的特殊興趣小組)的成員和ACM研究員。他在美國國家科學基金會CISE咨詢委員會任職六年。
(本文來源于《EEPW》2024.3)
評論