慕尼黑大學(xué)對話AI專家:我們該如何理解機器智能?
與聊天機器人的交流會如何改變我們?
本文引用地址:http://www.ex-cimer.com/article/201903/398951.htm心理學(xué)、市場與消費者心理學(xué)教授Sarah Diefenbach博士:
“在邏輯占主導(dǎo)地位的領(lǐng)域,各類情境、決策與行動往往都能夠合理使用嚴格的邏輯術(shù)語進行制定并簡化為公式,如此一來,人工智能當(dāng)然能夠超越人類并為我們完成很多工作。但作為一名心理學(xué)家,我真正感興趣的是情感因素在其中發(fā)揮的重大作用——人工智能將如何改變我們的社交生活,以及我們彼此之間的日常互動?
這里,我們以服務(wù)業(yè)為例。當(dāng)我們突然意識到對方并不是人類時,會對我們自身產(chǎn)生怎樣的影響?過去十分鐘,我們的交流對象原來只是聊天機器人——大家是否會因此感到受騙、受辱或者自尊受挫?我們是否會因此產(chǎn)生抵觸情緒?
要回答這個問題,我們需要思考機器人在社交網(wǎng)絡(luò)中的作用。在我?guī)У囊晃粚W(xué)生的論文當(dāng)中,她嘗試分析Instagram上點贊對于用戶自尊的影響。這里引發(fā)的相關(guān)問題,就是點贊操作的來源——真人抑或是聊天機器人,是否會對結(jié)果產(chǎn)生影響。在另一個關(guān)于養(yǎng)老院的項目中,我們也在嘗試從另一個角度研究社交機器人的作用。在陪伴老人的過程中,機器人應(yīng)該表現(xiàn)出怎樣的「個性」?它們應(yīng)該像是個溫馴的仆人那樣表現(xiàn)出尊重與謙遜嗎?或者說在這樣的情況下,應(yīng)該讓機器人表現(xiàn)得更真實一些——粗枝大葉與情緒化等典型的個性化行為,是否反而可能讓老人們感覺更加舒服處在?”
機器是否有可能在不久的將來取代記者?
慕尼黑路德維希馬克西米利安大學(xué)媒體與傳播系教授Neil Thurman:
“新聞業(yè)能否實現(xiàn)自動化,即極少甚至根本不需要任何直接性的人為控制?目前還不行,至少還不存在一種能夠涵蓋所有模式及方法的解決方案。我們?nèi)匀恍枰獙⑷蝿?wù)分解為常規(guī)的、可重復(fù)的例程,這是自動化算法編寫者的工作。機器學(xué)習(xí)技術(shù)仍然高度依賴于以往樣本中的「訓(xùn)練數(shù)據(jù)」,這意味著其還沒有能力在復(fù)雜、極具創(chuàng)造性而且最重要的新聞任務(wù)當(dāng)中表現(xiàn)出能夠與優(yōu)秀記者相匹敵的職業(yè)素養(yǎng)?!?/p>
然而,盡管存在這些限制,自動化工具仍然開始在一部分任務(wù)當(dāng)中取代人類記者——包括故事線索的篩選、新聞文本的編寫,以及應(yīng)該將哪些故事發(fā)布給哪些讀者、又該怎樣進行優(yōu)先級排序等等。
有人曾說,“機器人寫作”等技術(shù)的進步有可能改善新聞業(yè)財務(wù)狀況不穩(wěn)定的困境,甚至有望幫助新聞業(yè)騰出更多資源進行實地調(diào)查。然而,人們也擔(dān)心計算機過度敏感的新聞嗅覺可能給隱私帶來負面影響,或者是打著新聞個性化的旗號帶來無形的內(nèi)容過濾。
“隨著算法與AI技術(shù)的持續(xù)發(fā)展,我們必須確保整個新聞行業(yè)能夠繼續(xù)以可持續(xù)、透明且負責(zé)任的方式為公眾提供服務(wù)?!?/p>
AI能否為我們做出經(jīng)濟決策?
比較經(jīng)濟學(xué)學(xué)會主席Monika Schnitzer教授:
“人工智能可以從數(shù)據(jù)集當(dāng)中整理出「最佳估算」結(jié)論。例如,根據(jù)可用的統(tǒng)計數(shù)據(jù),信用卡公司能夠計算出剛剛辦理的卡片遭到辦卡人濫用的概率。而根據(jù)數(shù)據(jù),風(fēng)險能夠按照相對比例進行量化,并視情況決定拒絕支付或者允許支付?!?/p>
“這種評估已經(jīng)成為多種商業(yè)模式的重要基礎(chǔ)。對人工智能技術(shù)的應(yīng)用能夠大大降低此類估算的成本,因為其能夠以極快的速度分析與以往類似情況相關(guān)的大量數(shù)據(jù)。目前,AI尚不能實現(xiàn)的是獨立評估行動的后果。我們需要考慮有哪些響應(yīng)方法可供選擇,以及如何在評估當(dāng)中建立合適的安全界線以避免令人討厭的意外。在未來,這些仍然需要由人類做出判斷,而機器只能執(zhí)行人們分配的某些特定任務(wù)?!?/p>
算法會在招聘領(lǐng)域發(fā)揮作用嗎?
心理學(xué)方法與診斷學(xué)學(xué)會主席Markus Bühner:
“算法目前已經(jīng)被用于進行人員篩選。雖然可能在決策流程當(dāng)中發(fā)揮一定作用,但其仍然無法完全取代人力資源從業(yè)者。在我看來,很多面向現(xiàn)有市場問題提出的所謂AI改進意見根本不切實際。在大多數(shù)情況下,我看不到這些算法能夠帶來哪些具體的收益。當(dāng)然,考慮到在理論層面上,引入數(shù)百萬個變量的算法對候選人的評估確實有可能更準確。但最重要的是評估到底關(guān)注哪些人才素養(yǎng),如果候選人聲音不好聽,比如說碰巧感冒了或者面試語言并非其母語,那么結(jié)果會受到哪些影響?
根據(jù)DIN工作相關(guān)能力評估規(guī)范,在上下文當(dāng)中收集信息的評估人員必須確保這一切與工作內(nèi)容直接相關(guān)。作為人類,我們不可能事無巨細地收集并分析候選人的每一項特征與對應(yīng)數(shù)據(jù)。因此,我也期待看到算法的應(yīng)用與我們的數(shù)據(jù)保護立法條款如何協(xié)調(diào)統(tǒng)一,畢竟這些條款對于受試人的數(shù)據(jù)透明度做出了約束要求。另外,即使是在那些毫無爭議的倫理與法律問題上,算法的有效性也仍然存在問題。如果要對掌握某些新技能的候選人做出準確的可靠性預(yù)測,其必須不斷重建自身以適應(yīng)崗位的要求?!?/p>
“我們永遠不會制造出真正的合作伙伴”
哲學(xué)與政治理論教授Julian Nida- Rümelin:
“目前,人工智能領(lǐng)域仍然主要處于搜索模式,基本上可以這么斷言。機器人技術(shù)的設(shè)計目標在于提供能夠模仿人類能力的方案,以人臉識別為代表的實際成果已經(jīng)體現(xiàn)出這種明顯的趨勢。然而,這類應(yīng)用不太可能決定AI領(lǐng)域的未來發(fā)展方向。
換言之,試圖將利用非生命事物作為自我預(yù)測的動機是種不明智的行為。我們永遠不會制造出真正的合作伙伴或者談話對象。相反,我們應(yīng)該集中精力于經(jīng)濟生產(chǎn)這一核心。如果實現(xiàn)工業(yè)4.0的努力主要集中在對工具以及技術(shù)能力的推動方面,那么數(shù)字化無疑有望為全世界的經(jīng)濟發(fā)展做出巨大貢獻?!?/p>
評論