当轻薄本遇上 AIGC,英特尔:是时候展现真正的生产力了
ChatGPT 的火熱出圈,讓 AIGC 成為目前人工智能領域最重要的發(fā)展方向,同時也在深刻影響我們使用智能終端的體驗。
比如在智能手機上,AI 技術很早就被應用在影像、語音助手、游戲等方面,而隨著生成式 AI 火熱,手機芯片廠商們也在積極將 AIGC 解決方案嵌入到移動芯片平臺中,并且在手機上玩 AIGC,也正成為很多手機品牌在新產(chǎn)品上主打的賣點。
不過,當我們談到 AIGC 的變革意義,其實主要還是集中在以大模型為核心的“變革內(nèi)容生產(chǎn)方式”與“變革人機交互方式”兩個方面,一言以蔽之,就是 AIGC 對于我們生產(chǎn)力的解放。
而說到生產(chǎn)力,其實至少現(xiàn)階段,對于大部分用戶來說核心的生產(chǎn)力工具還是 PC,而手機、平板等移動終端的生產(chǎn)力還相當有限。因此,在 PC 上部署 AIGC,其實才是更有優(yōu)勢、也更有意義的事。
至于 AIGC 在 PC 上的落地和應用,這里就不得不提到一個重要的推動者:英特爾。
早在 2018 年,英特爾就曾判斷 PC 會是未來 AI 的主戰(zhàn)場,并推出了“AI on PC Developer Program”的 AI PC 開發(fā)者計劃。在此之后,英特爾持續(xù)將 AI 能力融入到旗下酷睿處理器產(chǎn)品中,包括在架構層面提升 AI 的性能,SoC 中內(nèi)置 Intel GNA 以加速低功耗 AI 在 PC 上的應用等等。
而面向 AIGC 的浪潮,英特爾也在軟硬件層面都做好了準備。硬件層面,以第 12 代、第 13 代英特爾酷睿處理器和英特爾銳炫 A 系列顯卡為代表的英特爾多款客戶端芯片均能提供強勁性能,以滿足生成式 AI 對于高算力的需求。
在軟件層面,英特爾則通過軟件生態(tài)的構建和模型優(yōu)化,進一步推動新興的生成式 AI 場景在個人電腦的落地,廣泛覆蓋輕薄本、全能本、游戲本等。目前,英特爾正與 PC 產(chǎn)業(yè)眾多合作伙伴通力合作,致力于讓廣大用戶在日常生活和工作中,通過 AI 的輔助來提高效率,進而帶來給革新性的 PC 體驗。
英特爾通過模型優(yōu)化,降低了模型對硬件資源的需求,進而提升了模型的推理速度,讓社區(qū)開源模型能夠很好地運行在個人電腦上。
以大語言模型為例,英特爾通過第 13 代英特爾酷睿處理器 XPU 的加速、low-bit 量化以及其它軟件層面的優(yōu)化,讓最高達 160 億參數(shù)的大語言模型,通過 BigDL-LLM 框架運行在 16GB 及以上內(nèi)存容量的個人電腦上。
目前,包括 LLAMA / LLAMA2、ChatGLM / ChatGLM2、MPT、Falcon、MOSS、Baichuan、QWen 等在內(nèi)的模型都可以運行,同時英特爾還提供了易用的 API 接口(Transformers、LangChain),并支持 Windows、Linux 的操作系統(tǒng)。
說到這,不妨做一下實測。小編選擇了一臺通過英特爾 Evo 平臺認證的輕薄本:華碩破曉 Air,這款輕薄本搭載英特爾 13 代酷睿 i7-1355U 處理器,16GB LPDDR5 內(nèi)存。
接著,小編在華碩破曉 Air 上裝好英特爾推出的大語言模型 Demo。這個 Demo 集成了三個大語言模型,包括 ChatGLM2、LLaMA2 和 StarCoder。
這三個模型均通過英特爾的語料庫進行了優(yōu)化,主要的優(yōu)化方式是對這些大語言模型進行量化操作,以減輕他們對本地硬件資源的需求。
測試時,小編首先在聊天助手功能下問它“朋友向我借了 1000 元,一直沒有歸還,我該如何索要的同時不傷感情?”這款大模型的回答有條有理,列出了四種方法,而且回答這么長的一段話響應速度也很快,first latency 只用了 1208.51ms。
接著小編切換到情感分析功能,讓大模型 Demo 分析一段散文文案所表達的思想感情,在華碩破曉 Air 上離線運行的大模型很快就給出了答案,而且對文案內(nèi)容的分析還是比較到位的,并沒有停留在文字的表面意思,而是理解到文字背后隱喻的情感。學生朋友們可以用這個能力來輔助語文閱讀理解的學習。
接著小編使用翻譯功能做了測試,英特爾大語言模型的表現(xiàn)同樣能夠讓人滿意,整個語段翻譯得很通順,而且響應速度也很快。大家平時查閱一些外文資料、文獻,就可以直接在電腦上用 AI 大模型進行翻譯,省去了在網(wǎng)上找各種翻譯應用的過程。
接下來再測試一下英特爾大語言模型的文案創(chuàng)作能力。小編切換到“故事創(chuàng)作”功能,但不是讓他創(chuàng)作故事,而是讓它寫一則招聘文案。從結果上看,大模型 Demo 把小編提出的要求都考慮到了,而且文案整體也比較流暢,屬于拿過來稍微改改就能用的水平。這樣,如果你是文案工作者,這個能力相信會對你非常實用,大大加快你的文案創(chuàng)作效率。
在英特爾大語言模型寫文案的時候,小編看了一下華碩破曉 Air 性能資源的調(diào)度情況,英特爾 13 代酷睿 i7-1355U 處理器占用率達到了 100%,內(nèi)存占用達到了 9.0GB(58%),Xe 核顯占用也達到了 33%。看來這個運算過程確實是在本地進行的。在英特爾不斷的優(yōu)化和 13 代酷睿處理器算力的提升下,確實能夠在輕薄本上實現(xiàn) AIGC 的落地。
接著再考驗一下它的信息提取能力,小編在復制了一篇新聞,讓它提取其中的核心信息。由于問題信息量比較大,這次英特爾大語言模型 Demo 生成的時間比其他問題稍長了一些,但也可以接受,關鍵是它提煉的摘要確實是符合新聞本來要傳達的信息。
最后,小編在“美食指南”功能里讓大模型 Demo 推薦一下去西安游玩值得嘗試的美食,對于這個問題,大模型 Demo 很迅速地給出了一份攻略,除了中間地“羊肉泡饃”推薦了兩遍,其他的結果都沒什么問題,確實是西安的特色美食。
總體來說,使用華碩破曉 Air 這款英特爾 Evo 輕薄本在本地運行、使用大語言模型 Demo,實際給到的體驗的確讓人驚艷。在此之前,小編確實沒有想到一款輕薄本也能如此流暢、順利地運行有超高算力需求的 AI 大模型,這進一步打開了小編對輕薄本性能以及 AIGC 應用場景的認知。
當 AIGC 能夠在輕薄本這樣的移動計算終端側順利運行,意味著我們就可以擺脫網(wǎng)絡、時間和空間的限制,隨時隨地通過 AIGC 來加速我們的內(nèi)容創(chuàng)作力和生產(chǎn)力。文字工作者可以用它來輔助編寫文案、文筆潤色,上班族們可以用它輔助解決工作中遇到的實際問題,學生、研究人員可以用它輕松查閱資料、整理信息、翻譯文獻等等,它讓 PC 的生產(chǎn)力屬性得以重新定義,這也是在手機、平板等終端設備上運行 AIGC 所無法獲得的高效體驗。
最后值得一提的是,在英特爾下一代酷睿處理器 Meteor Lake 中,CPU 和 GPU 的性能都會得到大幅度的提升,更關鍵在于英特爾還在 Meteor Lake 中加入了集成式 NPU 單元,實現(xiàn)更高效能的 AI 計算,它包含了 2 個神經(jīng)計算引擎,能夠更好地支持包括生成式 AI、計算機視覺、圖像增強和協(xié)作 AI 方面的內(nèi)容。而且,Meteor Lake 中的 NPU 不是單一孤島式的架構,除了 NPU,CPU 和 GPU 也都可以進行 AI 運算,不同場景下會用不同的 AI 單元去應對,彼此協(xié)調(diào),如此一來,其整體能耗比相比前代最多可以提升 8 倍之多。
總之,未來搭載 Meteor Lake 處理器的輕薄本在本地 AIGC 創(chuàng)作方面的表現(xiàn)會更加令人期待。相信隨著英特爾后續(xù)產(chǎn)品的進一步擴展,規(guī)模和數(shù)量的大幅增長將讓數(shù)億人輕松享受 AI 加速體驗,并實現(xiàn)更優(yōu)的智能協(xié)作、更快的處理速度和更強的功能特性,一場前所未有的生產(chǎn)力變革正在加快到來。
廣告聲明:文內(nèi)含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,所有文章均包含本聲明。
總結
以上是生活随笔為你收集整理的当轻薄本遇上 AIGC,英特尔:是时候展现真正的生产力了的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 国内有做蛋白质二级结构预测的吗?
- 下一篇: 华为新款 MateBook D 16 笔