Apple Intelligence?Apple又要重新定義AI了?
本文引用地址:http://www.ex-cimer.com/article/202406/459899.htm
又是一年一度的WWDC,而筆者也要來和各位一起分析一下,今年的WWDC蘋果又整出了什么“新活兒”。今年的WWDC長(zhǎng)達(dá)一個(gè)半小時(shí),主題和之前大眾猜測(cè)的一致,就是AI、AI、AI還是AI,從iPhone、iPad到Mac,無不被生成式AI覆蓋。橫空出世的Apple Intelligence,讓蘋果全系產(chǎn)品有了史詩級(jí)升級(jí)。但是,有趣的是,Apple的AI并不是傳統(tǒng)意義上的“Artificial Intelligence”,而是Apple自身重新定義了一個(gè)“Apple Intelligence”。我們都知道,Apple一向擅長(zhǎng)“定義”,從改變世界的“重新發(fā)明手機(jī)”到最近的Apple Vision Pro的“空間計(jì)算設(shè)備”。那么這一次,所謂的“蘋果牌AI”帶給我們的是驚喜還是驚嚇呢?
對(duì)于Apple來說,AI的隱私安全是貫穿始終的重點(diǎn),因此對(duì)于Apple Intelligence,Apple一直再強(qiáng)調(diào)這是一種部署在本地的AI,數(shù)據(jù)不會(huì)上傳。因此,又是Apple的傳統(tǒng)藝能,要想完整體驗(yàn)Apple Intelligence的功能,那就得!加!錢!Apple Intelligence只支持運(yùn)行在以下Apple Silicon M系列芯片和A17 Pro之上,也就是說,手機(jī)端只有iPhone 15 Pro系列能夠運(yùn)行完整的本地Apple Intelligence功能。
了解到這點(diǎn)之后,我們?cè)诰唧w聊聊這一次的Apple Intelligence。開始我們先總結(jié)一下,Apple Intelligence主要圍繞以下幾點(diǎn),語言、圖像、操作以及個(gè)性化語言理解能力。之后也和Apple爆出的新聞一致,Siri也終于全新升級(jí),AI 隱私功能的新標(biāo)準(zhǔn)也不會(huì)缺席,以及Apple平臺(tái)整合了ChatGPT。
首先,我們來看看Apple Intelligence的語言部分。這一部分的能力就是目前各位最熟悉的大語言模型常用能力,它可以借助本地AI實(shí)現(xiàn)文本檢驗(yàn),優(yōu)化重寫,生成摘要信息等功能。例如,Writing Tools可以幫助用戶重寫、校對(duì)和總結(jié)文本,在幾乎任何輸入位置都可用,包括郵件、備忘錄、Pages文稿和第三方App等等。Apple的本地AI的語義理解能力使得系統(tǒng)能夠整合多種信息,并從中提取關(guān)鍵信息。這些關(guān)鍵信息可以被突出顯示,甚至在鎖屏界面上進(jìn)行特別提醒。此外,AI還能生成自動(dòng)回復(fù),為用戶提供便捷的交互體驗(yàn)。對(duì)于這一部分的“新能力”,筆者認(rèn)為這些功能在很多大型語言模型中已經(jīng)得到了實(shí)現(xiàn),如GPT-3、BERT等。從這個(gè)角度來看,Apple AI的語言能力很可能給不了用戶太多的“驚喜”。但換一個(gè)角度,筆者認(rèn)為我們依然能小小的期待一下Apple能否發(fā)揚(yáng)自己的生態(tài)優(yōu)勢(shì),來給用戶更好的AI體驗(yàn),Apple Intelligence可能會(huì)將這些功能與蘋果硬件、軟件和服務(wù)緊密結(jié)合,為用戶提供更加流暢、無縫的使用體驗(yàn)。
之后,我們?cè)賮砜纯碅pple Intelligence的圖像處理方面。同樣的,這也是之前無數(shù)AI大模型早已實(shí)現(xiàn)的能力,從目前來看,Apple似乎巧妙地把它融入了App生態(tài)之中。全新Image Playground,使用簡(jiǎn)單,并且直接內(nèi)置在信息等多款 app 中,也可以作為獨(dú)立app使用,可讓用戶在幾秒內(nèi)創(chuàng)作出有趣的圖像,而當(dāng)用戶使用imessage聊天之時(shí)(國(guó)內(nèi)真的有人用imessage聊天嗎?),聊天的時(shí)候可以快速生成的有趣的圖片,而且完全可以基于當(dāng)前會(huì)話內(nèi)容生成。當(dāng)您拍攝完成照片之時(shí),Apple的AI也可以介入剔除畫面之中您不想要的要素了。筆者不知道當(dāng)您看到這些功能的時(shí)候會(huì)想到什么,估計(jì)會(huì)有不少人都會(huì)有和筆者一樣的感受:“就這?”。
最后,我們?cè)賮砜纯碅pple AI的個(gè)性化語言理解能力,這一部分的升級(jí)主要被應(yīng)用于Siri之上。Siri終于可以識(shí)別設(shè)備屏幕上的內(nèi)容了,而Siri的交互也變成了屏幕外邊緣處亮起柔光。現(xiàn)在Siri能夠識(shí)別屏幕上的內(nèi)容,并支持跨應(yīng)用交互。例如,如果在聊天中提到了一個(gè)地址,Siri可以直接將該地址添加到通訊錄中相應(yīng)聯(lián)系人的信息里。
Siri的智能化現(xiàn)在能夠完全基于用戶個(gè)人數(shù)據(jù)和設(shè)備端信息,它可以識(shí)別設(shè)備上各種應(yīng)用中提到的信息,如信息、郵件等,并綜合這些信息來回答用戶的問題。例如,用戶無需提供任何前置信息,直接詢問Siri家人的航班到達(dá)時(shí)間,Siri就能給出答案。
Siri的屏幕識(shí)別和操作能力,正是利用了蘋果之前發(fā)布的ReALM技術(shù)。蘋果成功開發(fā)了一個(gè)僅有80M參數(shù)的ReALM模型,它在特定AI任務(wù)處理上的效果甚至能夠超越GPT-4。蘋果的ReALM模型有四種不同參數(shù)規(guī)模,這些就是蘋果的大模型。這確實(shí)有些令人難以置信,因?yàn)樗鼈兊膮?shù)規(guī)格只有GPT模型的幾百分之一,卻在某些任務(wù)上取得了更好的成績(jī),單說這一點(diǎn),Apple AI還真能給我們一點(diǎn)驚喜。
讓我們回到最開始的問題:Apple又要重新定義AI了?很顯然,蘋果并沒有再續(xù)改變手機(jī)的“iPhone時(shí)刻”,縱觀這次的WWDC,Apple的AI功能似乎并未帶來太多創(chuàng)新。但是,如果我們換一個(gè)方向來看,Apple的重點(diǎn)似乎是將AI模型部署到本地設(shè)備之中,這一點(diǎn)也許在未來真的尤為重要。
與微軟直接宣布的Phi-Silica不同,蘋果在發(fā)布會(huì)上并未透露任何有關(guān)本地設(shè)備搭載模型的詳細(xì)信息,無論是模型的型號(hào)還是參數(shù)量。盡管蘋果的研究團(tuán)隊(duì)在今年3月14日發(fā)表的arXiv技術(shù)論文中介紹了MM1多模態(tài)大模型,但與Phi-3家族中最小的Phi-Silica僅有3B參數(shù)相比,MM1的參數(shù)量大了10倍。
現(xiàn)在Apple Intelligence最終選擇的端側(cè)小模型,如果不是其他未發(fā)布的研究成果,很可能是MM1大模型的縮小版,具有更小的參數(shù)規(guī)模。蘋果在本次發(fā)布會(huì)上也宣布了與OpenAI的合作,因此不排除OpenAI為Apple Intelligence的端側(cè)小模型提供了技術(shù)支持。
然而,考慮到OpenAI與英偉達(dá)的緊密合作,其技術(shù)架構(gòu)必然會(huì)基于CUDA進(jìn)行優(yōu)化和迭代,蘋果不太可能放棄使用自家投入多年研發(fā)的M系列芯片,而不是基于硬件架構(gòu)和軟件生態(tài)來開發(fā)自家的端側(cè)模型。畢竟,蘋果非常注重通過“軟硬一體”構(gòu)建的優(yōu)秀體驗(yàn)和產(chǎn)品壁壘。
隨著微軟推出AI PC,蘋果也決定在設(shè)備本地部署一個(gè)可能相對(duì)較小的模型,未來我們可以預(yù)見將有更多的端側(cè)模型被集成到各種智能設(shè)備中。這些小模型有望滿足大多數(shù)用戶的需求,通過本地部署和本地計(jì)算的方式,為用戶提供快速響應(yīng)且無需擔(dān)心算力成本的AI解決方案,這很可能是未來智能設(shè)備集成AI功能的主要趨勢(shì)。
當(dāng)然,端側(cè)模型最終的效果如何,還需要通過大規(guī)模用戶的真實(shí)需求來進(jìn)行驗(yàn)證。
評(píng)論