<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          新聞中心

          EEPW首頁 > 智能計(jì)算 > 業(yè)界動(dòng)態(tài) > 谷歌聊天機(jī)器人 Bard 遭員工嘲諷:是個(gè)“病態(tài)的騙子”

          谷歌聊天機(jī)器人 Bard 遭員工嘲諷:是個(gè)“病態(tài)的騙子”

          作者: 時(shí)間:2023-04-20 來源:IT之家 收藏

          北京時(shí)間 4 月 20 日上午消息,據(jù)報(bào)道,在 3 月份面向公眾推出人工智能聊天機(jī)器人 的前不久,要求內(nèi)部員工測(cè)試這個(gè)新工具。

          本文引用地址:http://www.ex-cimer.com/article/202304/445789.htm

          根據(jù)內(nèi)部討論的截圖,一名員工的結(jié)論是, 是個(gè)“病態(tài)的騙子”。另一名員工則表示,“令人尷尬”。一名員工寫道,當(dāng)他們向 Bard 詢問如何降落飛機(jī)時(shí),聊天機(jī)器人往往給出會(huì)導(dǎo)致墜機(jī)的建議。還有一名員工表示,Bard 提供的關(guān)于潛水的建議“可能會(huì)導(dǎo)致重傷或死亡”。

          不過,依然推出了 Bard。根據(jù)多名在職員工和前員工的說法,以及的內(nèi)部文件,作為一家以往非常受信任的互聯(lián)網(wǎng)搜索巨頭,谷歌通過 Bard 提供的是低質(zhì)量的信息,目的是跟上競(jìng)爭(zhēng)對(duì)手,同時(shí)將科技倫理承諾放在了很低的優(yōu)先級(jí)來考慮。2021 年,谷歌曾經(jīng)承諾,將人工智能倫理研究團(tuán)隊(duì)擴(kuò)大一倍,并投入更多資源評(píng)估人工智能技術(shù)的潛在危害。然而,隨著競(jìng)爭(zhēng)對(duì)手 Open 的聊天機(jī)器人 ChatGPT 在 2022 年 11 月首次亮相并大受歡迎,谷歌開始匆忙將生成式人工智能技術(shù)融入其最重要的產(chǎn)品中。

          對(duì)這項(xiàng)技術(shù)本身來說,這樣做帶來的發(fā)展速度明顯更快,并可能會(huì)給社會(huì)產(chǎn)生深遠(yuǎn)的影響。谷歌的在職員工和前員工們表示,谷歌承諾加強(qiáng)的科技倫理團(tuán)隊(duì)目前沒有話語權(quán),士氣低落。他們透露,負(fù)責(zé)新產(chǎn)品安全和科技倫理影響的員工已被告知,不要妨礙或試圖扼殺正在開發(fā)中的任何生成式人工智能工具。

          谷歌的目標(biāo)是圍繞這項(xiàng)尖端技術(shù)振興其日益成熟的搜索業(yè)務(wù),搶在微軟支持的 Open 前面,推動(dòng)生成式人工智能應(yīng)用進(jìn)入全球數(shù)千萬的手機(jī)和家庭,并贏得競(jìng)爭(zhēng)。

          權(quán)益組織 Signal Foundation 主席、谷歌前經(jīng)理梅雷迪思?惠特克(Meredith Whittaker)表示:“人工智能倫理已經(jīng)退居次要地位。如果科技倫理不能被置于利潤和增長(zhǎng)之上,它們最終就不會(huì)起作用?!?/p>

          對(duì)此谷歌表示,負(fù)責(zé)任的人工智能仍是該公司的首要任務(wù)。谷歌發(fā)言人布萊恩?加布里艾爾(Brian Gabriel)表示:“我們將繼續(xù)投資將人工智能原則應(yīng)用于技術(shù)的團(tuán)隊(duì)?!睆氖仑?fù)責(zé)任人工智能研究的團(tuán)隊(duì)在 1 月份的一輪裁員中至少減員 3 人,其中包括技術(shù)治理和項(xiàng)目主管。此次裁員影響了谷歌及其母公司的約 1.2 萬名員工。

          多年來,谷歌一直引領(lǐng)著支撐當(dāng)前人工智能發(fā)展的大部分研究,然而在 ChatGPT 推出時(shí),谷歌還沒有將對(duì)用戶友好的生成式人工智能技術(shù)集成到產(chǎn)品中。谷歌的員工們說,以往在將新技術(shù)應(yīng)用于搜索和其他重要產(chǎn)品時(shí),谷歌會(huì)謹(jǐn)慎地評(píng)估自身的能力和道德倫理考量。

          然而去年 12 月,谷歌高級(jí)管理層發(fā)布了“紅色警報(bào)”,并改變了對(duì)風(fēng)險(xiǎn)的偏好。員工們說,谷歌的領(lǐng)導(dǎo)團(tuán)隊(duì)決定,只要把新產(chǎn)品定位為“實(shí)驗(yàn)”,公眾就會(huì)原諒其中的缺陷。不過,谷歌仍然需要讓科技倫理團(tuán)隊(duì)加入進(jìn)來。當(dāng)月,人工智能治理負(fù)責(zé)人簡(jiǎn)恩?詹納伊(Jen Gennai)召開了負(fù)責(zé)任創(chuàng)新團(tuán)隊(duì)的會(huì)議,該團(tuán)隊(duì)負(fù)責(zé)維護(hù)谷歌的人工智能原則。

          詹納伊建議,為了加快產(chǎn)品發(fā)布的步伐,谷歌可能有必要做出一些妥協(xié)。谷歌為幾個(gè)重要類別的產(chǎn)品進(jìn)行打分,以衡量這些產(chǎn)品是否準(zhǔn)備好向公眾發(fā)布。在一些領(lǐng)域,例如兒童安全,工程師仍然需要 100% 解決潛在問題。但她在會(huì)上表示,在其他領(lǐng)域,谷歌可能沒時(shí)間繼續(xù)等待。她說:“‘公平’可能不是,并不需要達(dá)到 99 分。在這個(gè)方面,我們可能只要到 80 分,85 分,或更高的水平,就可以滿足產(chǎn)品發(fā)布的需求。”這里的“公平”指的是減少產(chǎn)品的偏見。

          今年 2 月,谷歌一名員工在內(nèi)部消息群中提出:“Bard 的問題不僅僅是毫無用處:請(qǐng)不要發(fā)布這款產(chǎn)品?!庇薪?7000 人查看了這條消息。其中許多人都認(rèn)為,在簡(jiǎn)單的事實(shí)問題上,Bard 的回答自相矛盾,甚至大錯(cuò)特錯(cuò)。然而消息人士透露,詹納伊在次月駁回了團(tuán)隊(duì)成員提交的風(fēng)險(xiǎn)評(píng)估報(bào)告。當(dāng)時(shí)報(bào)告的結(jié)論是 Bard 尚未做好準(zhǔn)備,可能造成危害。不久之后,谷歌就面向公眾開放了 Bard,并將其稱作是一次“實(shí)驗(yàn)”。

          在一份聲明中,詹納伊表示,這不僅僅是她這個(gè)層級(jí)的決定。在團(tuán)隊(duì)做出評(píng)估之后,她“列出了潛在風(fēng)險(xiǎn)清單,并將分析結(jié)果”升級(jí)提交給產(chǎn)品、研究和業(yè)務(wù)線的高級(jí)管理者。她說,該團(tuán)隊(duì)隨后判斷,“可以通過有限制的實(shí)驗(yàn)性發(fā)布的形式向前推進(jìn),包括繼續(xù)進(jìn)行預(yù)訓(xùn)練,提高安全圍欄,以及做出適當(dāng)?shù)拿庳?zé)聲明”。

          作為一個(gè)整體,硅谷仍然在努力解決競(jìng)爭(zhēng)壓力和技術(shù)安全之間的矛盾。“人道技術(shù)研究中心”在最近的一次演示中表示,人工智能研究者與專注于人工智能安全的研究人員的數(shù)量之比達(dá)到 30:1。這表明,在大型組織中提出對(duì)人工智能的擔(dān)憂往往會(huì)孤掌難鳴。

          隨著人工智能的加速發(fā)展,人們正在越來越擔(dān)憂人工智能對(duì)社會(huì)的不利影響。作為 ChatGPT 和 Bard 背后的技術(shù),大語言模型從新聞報(bào)道、社交媒體貼文和其他互聯(lián)網(wǎng)信息源處獲得大量文字信息,隨后用這些信息來訓(xùn)練軟件,讓軟件根據(jù)用戶的輸入信息或問題自動(dòng)預(yù)測(cè)并生成內(nèi)容。這意味著,從本質(zhì)上來看,這些產(chǎn)品有可能會(huì)產(chǎn)生攻擊性、有害或不準(zhǔn)確的言論。

          然而,ChatGPT 在首次亮相時(shí)引發(fā)了轟動(dòng)。到今年年初,這方面的發(fā)展已經(jīng)無法回頭。2 月份,谷歌開始發(fā)布一系列的生成式人工智能產(chǎn)品,推出聊天機(jī)器人 Bard,隨后升級(jí)了視頻平臺(tái) YouTube。當(dāng)時(shí)谷歌表示,YouTube 的創(chuàng)作者很快就可以在視頻中進(jìn)行虛擬換裝,以及使用生成式人工智能創(chuàng)建“奇幻的電影場(chǎng)景”。兩周后,谷歌宣布谷歌云加入新的人工智能功能,展示了谷歌 Docs 和 Slides 等服務(wù)如何自動(dòng)創(chuàng)建演示文稿、銷售培訓(xùn)文件和電子郵件。同一天,谷歌還宣布將把生成式人工智能融入醫(yī)療健康產(chǎn)品線。員工們表示,他們擔(dān)心,這樣的發(fā)展速度意味著谷歌沒有足夠的時(shí)間來研究人工智能潛在的危害。

          是否應(yīng)該以符合科技倫理的方式去開發(fā)尖端的人工智能技術(shù),長(zhǎng)期以來這一直是谷歌內(nèi)部爭(zhēng)論的一個(gè)話題。在過去幾年里,谷歌產(chǎn)品發(fā)生的錯(cuò)誤備受矚目。例如,在 2015 年一起令人尷尬的事件中,谷歌相簿錯(cuò)誤地將一名黑人軟件開發(fā)者和他朋友的照片標(biāo)記為“大猩猩”。

          三年后,谷歌表示,沒有修復(fù)底層的人工智能技術(shù),而是刪除了搜索關(guān)鍵詞“大猩猩”、“黑猩猩”和“猴子”的所有結(jié)果。根據(jù)谷歌的說法,“一群不同背景的專家”評(píng)估了這一解決方案。該公司還成立了人工智能倫理部門,主動(dòng)開展相關(guān)研究,確保人工智能對(duì)用戶更加公平。

          然而根據(jù)多名在職員工和前員工的說法,一個(gè)重要轉(zhuǎn)折點(diǎn)是人工智能研究員蒂姆尼特?格布魯(Timnit Gebru)和瑪格麗特?米切爾(Margaret Mitchell)的離職。他們?cè)餐瑤ьI(lǐng)谷歌的人工智能倫理團(tuán)隊(duì)。然而,因?yàn)橐粓?chǎng)關(guān)于谷歌人工智能研究公平性的爭(zhēng)議,他們分別在 2020 年 12 月和 2021 年 2 月離開。最終,負(fù)責(zé)管理他們工作的計(jì)算機(jī)科學(xué)家薩米?本吉奧(Samy Bengio)和其他幾名研究者也在幾年時(shí)間里紛紛離職,加入了谷歌的競(jìng)爭(zhēng)對(duì)手。

          丑聞發(fā)生后,谷歌也采取措施試圖恢復(fù)公眾聲譽(yù)。負(fù)責(zé)任人工智能團(tuán)隊(duì)在當(dāng)時(shí)的工程副總裁瑪麗安?克羅克(Marian Croak)的領(lǐng)導(dǎo)下進(jìn)行了重組。她承諾,將把人工智能倫理團(tuán)隊(duì)的規(guī)模擴(kuò)大一倍,并強(qiáng)化該團(tuán)隊(duì)與公司其他部門的聯(lián)系。

          不過即使在公開發(fā)表聲明之后,一些人也發(fā)現(xiàn),在谷歌從事人工智能倫理工作難度很大。一名前員工表示,他們提出要求,解決機(jī)器學(xué)習(xí)公平性的問題。然而他們也發(fā)現(xiàn),自己往往不被鼓勵(lì)這樣做,以至于甚至影響了他們工作的績(jī)效打分。他表示,經(jīng)理們也提出抗議,認(rèn)為人工智能倫理問題的提出妨礙了他們“真正的工作”。

          那些繼續(xù)在谷歌從事人工智能倫理研究的員工則面臨兩難:如何既能保住自己在谷歌的工作,又能繼續(xù)推進(jìn)這方面研究。亞倫?穆羅希(Nyalleng Moorosi)曾是谷歌的研究員,目前則在格魯布創(chuàng)立的“分布式人工智能研究所”擔(dān)任高級(jí)研究員。她表示,人工智能倫理研究崗位的設(shè)立就是為了說明,技術(shù)可能沒有做好大規(guī)模發(fā)布的準(zhǔn)備,而公司需要放慢速度。

          兩名員工表示,到目前為止,谷歌對(duì)產(chǎn)品和功能的人工智能倫理審核幾乎完全是自愿性質(zhì)的,僅有的例外是研究論文的發(fā)表,以及谷歌云對(duì)客戶合作和產(chǎn)品發(fā)布的審核。生物識(shí)別、身份識(shí)別,以及與兒童相關(guān)的人工智能研究必須由詹納伊的團(tuán)隊(duì)進(jìn)行“敏感話題”審核,但其他項(xiàng)目不一定需要。不過,一些員工也會(huì)在沒有被要求的情況下聯(lián)系人工智能倫理團(tuán)隊(duì)。

          盡管如此,當(dāng)谷歌產(chǎn)品和工程團(tuán)隊(duì)的員工試圖了解,谷歌的人工智能為何在市場(chǎng)上進(jìn)展緩慢時(shí),他們往往會(huì)注意到公眾對(duì)人工智能倫理的關(guān)切。但谷歌的一些人相信,新技術(shù)應(yīng)當(dāng)更快地被提供給公眾,以便通過公眾反饋對(duì)技術(shù)進(jìn)行優(yōu)化。

          另一名前員工表示,在紅色警戒發(fā)布之前,谷歌工程師可能很難接觸到公司最先進(jìn)的人工智能模型。他說,谷歌的工程師經(jīng)常會(huì)通過研究其他公司的生成式人工智能模型來進(jìn)行頭腦風(fēng)暴,探索這項(xiàng)技術(shù)的可能性,隨后再去研究如何在公司內(nèi)部去實(shí)現(xiàn)這一技術(shù)。

          谷歌前產(chǎn)品經(jīng)理、在 2020 年之前一直從事谷歌聊天機(jī)器人開發(fā)的高拉夫?內(nèi)馬德(Gaurav Nemade)表示:“毫無疑問我看到‘紅色警戒’和 Open 的觸動(dòng)給谷歌帶來的積極變化。他們真的能成為領(lǐng)導(dǎo)者,在自己的游戲中挑戰(zhàn) OpenAI 嗎?”近期的一系列變化,例如三星考慮在手機(jī)中用微軟必應(yīng)替換谷歌作為默認(rèn)搜索引擎,充分表明了技術(shù)的先發(fā)優(yōu)勢(shì)有多么重要。微軟必應(yīng)也采用了 ChatGPT 的技術(shù)。

          谷歌的一些員工表示,他們認(rèn)為谷歌已經(jīng)對(duì)最新的生成式人工智能產(chǎn)品進(jìn)行了足夠的安全檢查,并且 Bard 比競(jìng)爭(zhēng)對(duì)手的聊天機(jī)器人更安全。然而,現(xiàn)在的當(dāng)務(wù)之急是快速發(fā)布生成式人工智能產(chǎn)品,因此再怎么強(qiáng)調(diào)科技倫理問題都是徒勞的。

          研發(fā)新人工智能功能的團(tuán)隊(duì)目前正在封閉狀態(tài)中,因此普通的谷歌員工很難看到谷歌人工智能技術(shù)的全貌。以往,員工還可以通過公司的郵件組和內(nèi)部頻道來公開表達(dá)自己的疑慮,但現(xiàn)在谷歌以減少毒性為由提出了一系列社區(qū)指南,限制員工這樣去做。幾名員工表示,他們認(rèn)為這些限制是控制言論的一種方式。

          米切爾表示:“這帶來了挫敗感。我們的感覺是,我們到底在做什么?”即使谷歌沒有明確的指令,要求停止科技倫理的工作,但在當(dāng)前的氛圍下,從事這類工作的員工會(huì)很明顯的感覺到,自己不受支持,最終可能會(huì)因此減少工作量。“在谷歌管理層公開討論科技倫理問題時(shí),他們傾向于探討假想的未來,即全能的技術(shù)無法被人類控制,而不太涉及已經(jīng)可能帶來危害的日常場(chǎng)景。這種做法也被一些業(yè)內(nèi)人士批評(píng)為一種營銷形式。

          曾在谷歌擔(dān)任研究科學(xué)家的艾爾馬蒂?艾爾瑪穆迪(El-Mahdi El-Mhamdi)于今年 2 月從谷歌離職,原因是谷歌拒絕正面探討人工智能倫理問題。他表示,去年底他參與合著的一篇論文提出,從數(shù)學(xué)上來看,基礎(chǔ)性的人工智能模型不可能同時(shí)做到大規(guī)模、健壯,以及保障隱私安全。

          他表示,谷歌通過雇傭關(guān)系對(duì)他參與的研究提出質(zhì)疑。隨后,他并沒有為自己的學(xué)術(shù)研究辯護(hù),而是直接放棄了與谷歌的雇傭關(guān)系,選擇了學(xué)術(shù)身份。他說:”如果你想留在谷歌,就必須為整個(gè)系統(tǒng)服務(wù),而不是與其發(fā)生沖突?!?/p>




          關(guān)鍵詞: Bard AI 谷歌

          評(píng)論


          相關(guān)推薦

          技術(shù)專區(qū)

          關(guān)閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();