當前位置:首頁 >  科技 >  IT業(yè)界 >  正文

大模型來了,你的“存力”攢夠了嗎?

 2024-03-22 08:37  來源: A5專欄   我來投稿 撤稿糾錯

  阿里云優(yōu)惠券 先領券再下單

作者 | 曾響鈴

文 | 響鈴說

提到AI、大模型,很多人腦海里最先想到的是算力、算法、數據這“三駕馬車”。

而要論誰最重要,恐怕多數人都會覺得是算力。

畢竟,“算力緊缺”的氣氛常常被渲染起來。

然而,隨著大模型進一步演進,不同要素的資源配置情況逐步發(fā)生了改變。

其中,數據的重要性正提到了前所未有的高度,由此也正在帶來對存儲越來越嚴苛的要求。

在一個全新的視角下,數據與其背后的“存力”,正在成為影響大模型創(chuàng)新整體過程的關鍵因素。

大模型創(chuàng)新從“片面追求”走向“全局視角”,“存力”價值凸顯

在某種“算力不足恐懼癥”下,前幾年,各個省市都在大力建設AI算力中心。

參數模型有多大、多少卡、每秒多少次運算能力……是大家的主要關心點。

中國強大的基礎設施建設能力與優(yōu)勢,在新基建這里又繼續(xù)發(fā)光發(fā)熱。

這無疑對AI、大模型的發(fā)展帶來了很多好處,尤其是讓算力問題得到紓解。

但是,當一個“急事”快要落定后,我們的目光,就不免要落到全局層面,思考大模型創(chuàng)新在整體上應該如何才能做出優(yōu)勢?

很明顯,算力,只是補了急切的短板,而大模型創(chuàng)新從來都必須是端到端完成,才能最終展現出場景變革的價值。

我們知道,大模型訓練大體上可以分為數據歸集、數據預處理(匿名、打標簽等工作)、模型訓練、應用推理幾個流程階段。

一個樸素的邏輯是,要想端到端效率高,一方面要保證每個階段效率高,另一方面還要讓不同階段的接駁更順暢。

然而,目前這兩個方面都存在問題。

在“接駁”這件事上,在數據歸集后,由數據預處理階段邁入模型訓練階段,因為分離部署、存在數據煙囪,跨設備、跨中心拷貝到數據訓練場景中去,訓練準備耗時冗長——一個20億數據集,拷貝都要準備整整30天。

要知道,現在大模型的發(fā)展進度幾乎是按周刷新。

而這也導致模型訓練階段的效率不佳。很多企業(yè)圖省事采用本地盤做存儲,數據在跨算力服務器間同步時讀取效率低(加載1TB數據往往需4~6小時),GPU長時間處于等待狀態(tài)造成資源閑置。

這背后,除了跨設備同步,還疊加有另一重原因,即大模型訓練往往存在海量的小文件讀取,小文件的讀寫性能較差,極其耗費時間。

而訓練階段的效率問題還沒完。

一旦出現故障,或者要優(yōu)化算法,就需要讓GPU停下來,調整好了再啟動,這種往往持續(xù)數小時的百GB,甚至TB級的Checkpoint斷點續(xù)訓的存在,與海量數據同步一起,致使GPU資源利用率普遍不高,昂貴的投資被白白浪費。

好不容易“熬”到了應用推理階段,要想推理效果更好,尤其是規(guī)避“大模型幻覺”等問題,還需要不斷調取特定的知識數據。

在“全局視角”,大模型創(chuàng)新要解決的問題還很多,但從各種問題不難看出,它們都與數據及其背后的存儲相關。

所謂AI全流程“全局視角”,其實可以歸集到“數據”視角進行整體規(guī)劃。

事實上,這本身就是數據對大模型越來越重要的一種端到端流程上體現。

當前人工智能大模型的快速發(fā)展依賴大規(guī)模、高質量的數據養(yǎng)料,已經是普遍的共識。

在算法都是基于公開大模型微調、走向收斂,算力主要依靠英偉達、昇騰等提供資源(意味著與企業(yè)的預算能力掛鉤,企業(yè)能主動做的并不多)的情況下,數據已經成為AI大模型的差異化變量,優(yōu)質數據越多,模型效果越好,數據規(guī)模和質量決定AI智能的高度。

與此同時,AI大模型迭代加速,從單模態(tài)到多模態(tài)對數據的要求并非簡單的“多加一份模態(tài)的”,而是在參數規(guī)模和數據量上都進行著PB到EB的萬倍增長。

可以說,“缺數據,無AI”。

更進一步看,在數據獲取完成后,大部分有關數據的癥結問題,最終又都可以歸結到存儲是否能夠跟上的問題。

因為,AI數據存力是人工智能大模型的數據載體,與大模型的數據歸集、預處理、訓練、推理等全生命周期的流程緊密相關,存力建設對人工智能發(fā)展非常重要。

此外,在數據安全性、可靠性等方面,“存力”也發(fā)揮著直接的作用。

在全局視角下,要提升端到端的效率,“算力”跑的快,“存力”也要跟上,算力與數據存力一起系統(tǒng)化地構成了AI算力基礎設施。

如果說“缺數據,無AI”,那么毫無疑問先進數據存力將會是構建AI差異化優(yōu)勢的關鍵。

“全局視角”下,外置高性能共享存儲正在推動優(yōu)勢“存力”的形成

既然存力如此重要,那么企業(yè)要如何構建優(yōu)勢“存力”?

總結前文,只有能夠解決數據歸集、數據預處理、數據訓練、模型推理等環(huán)節(jié)的低效問題,推動數據價值的實現,實現大模型創(chuàng)新端到端效率提升,才能算得上優(yōu)勢“存力”,而這涉及海量數據的復雜讀寫,必須要有高性能共享存儲才能解決。

具體而言,可以得出包括存力在內的AI算力基礎設施面臨著三大挑戰(zhàn)。

集群GPU利用率普遍低于50%;

數據加載時間長,小時級斷點續(xù)訓時間;

語料數據規(guī)模大,從單模態(tài)到Sora等多模態(tài)大模型,語料從PB級到EB級增加,EB級的數據規(guī)模擴張。

這些挑戰(zhàn),都導向大規(guī)模數據集群的可用度上。

換句話說,能夠解決大規(guī)模數據集群的可用度的存力,就是好存力。

業(yè)界已經有一些領頭羊企業(yè)行動起來了。

例如,英偉達的SuperPOD參考架構,采用了外置高性能共享存儲來解決AI大模型三大挑戰(zhàn):

其主要背景,就是數據集越來越大,采用GDS(GPU直通存儲)可以更高效地從存儲中讀取數據,提供更高性能和更低時延。

類似做法的不只有英偉達一家,Meta采用外置共享存儲,支持了數千個 GPU以同步方式保存和加載Checkpoint,實現了靈活、高吞吐量的EB級存儲。

此外,還有DDN(美國高性能計算和云存儲廠商)利用外置共享存儲消除在不同存儲之間移動數據的開銷和風險、Net APP利用高性能全閃存存儲提升GPU利用率等。

三大挑戰(zhàn)都被針對性解決,一種共識已經客觀上形成——采用外置高性能共享存儲,是優(yōu)勢“存力”的重要可行解。

而在國內,也同樣有這樣的產品和服務可以選擇。

華為同樣提供外置高性能AI存儲,其AI數據湖解決方案,能夠實現全局文件系統(tǒng)(統(tǒng)一數據管理、無論在何處)、上千節(jié)點EB級系統(tǒng)擴展、數據智能冷熱分級、多協(xié)議互通等能力,從而做到提升GPU利用率、大大降低斷點續(xù)訓喚醒時間、滿足EB級語料存儲要求,最終提升大規(guī)模數據集群的可用度,一次性解決AI算力基礎設施面臨的三大挑戰(zhàn)。

外置高性能共享AI存儲同樣得到了國內廣大政企客戶的認可。

目前,華為高性能共享AI存儲已經在智算中心、超算中心、國家實驗室、高教科研、大中型銀行、運營商、企業(yè) AI 助手等場景下應用,服務科大訊飛、建設銀行、天翼云智算中心、昌平實驗室、上海交大、中原銀行(智能客服)等客戶。

以科大訊飛為例,早期其數據中心采用“開源分布式存儲軟件+服務器硬件”搭建,存在讀寫性能不佳(十億小文件數據量時讀寫性能陡降)、可靠性不夠充分(故障域小、冗余保護不足)等掣肘,使得其只能將50PB 數據量需要分成多個存儲集群(為了系統(tǒng)安全性的考慮),出現前文提到的問題——AI訓練時需要頻繁地將數據在存儲集群間進行搬遷,GPU 利用率不足 50%。

采用華為AI數據湖方案后,科大訊飛實現了一個集群一個文件系統(tǒng)即可輕松應對多模態(tài)大模型時千億~十萬億參數規(guī)模,同時基于高性能存儲層+大容量存儲層的自動數據分級實現了TCO 最優(yōu)。

高性能,高容量,高密度,高可靠性,高安全性……在科大訊飛激烈競逐大模型賽道時,“存力”不再成為瓶頸,而是帶來了極大的助力。

這也說明,企業(yè)不能因為暫時沒有AI平臺的計劃就不需要提前準備“存力”,需要提前規(guī)劃和建設“Al Ready 的數據湖”,否則后續(xù)可能面臨數據資產歸集困難、架構無法平滑演進而造成重復投資建設等重大問題。

而一旦優(yōu)勢“存力”形成,其給企業(yè)帶來的四重成本優(yōu)化的價值也顯現出來:

1、時間成本

在全局視角下,外置高性能共享AI存儲解決大規(guī)模數據集群的可用度問題,實現端到端效率的提升,就是在以加速模型迭代的方式幫助政企搶抓大模型機遇。

2、財務成本

本地盤雖然采購時架構較為低廉,然而優(yōu)質存儲方案從長期可擴展性、架構平滑演進來看綜合成本卻更低;而且,企業(yè)提前規(guī)劃建設“AI Ready ”的數據湖存力底座,也能夠加速數據資產價值的激活,盤活溫冷數據,從而完成數據到“數據資產”的轉化。

3、情緒成本

這是針對大模型最終用戶而言,更高效的大模型應用迭代,以存儲內置的知識庫建設幫助推理應用,流暢、絲滑、準確,都能大大提升用戶的體驗,減少不信任感,從而更好地實現價值轉化。

4、社會責任成本

馬斯克曾說,AI的盡頭是電力,大模型規(guī)模更大,無論是算力還是數據存儲最終都依賴大量電力供應。‘’

而華為外置高性能共享AI存儲除了提升GPU利用率、保證EB級大規(guī)模數據高效訪問,其業(yè)界性能最高、容量密度最大的設計,還能夠直接幫助客戶減少數據中心物理空間、節(jié)省功耗,與綠色低碳的時代目標共振。

總之,外置高性能共享AI存儲在國內外都已經有了最佳實踐,是實現優(yōu)勢“存力”的關鍵選擇。在大模型洪流下,在數智化轉型升級浪潮中,有需求的政企組織可以盡快行動起來了。

*本文圖片均來源于網絡

*此內容為【響鈴說】原創(chuàng),未經授權,任何人不得以任何方式使用,包括轉載、摘編、復制或建立鏡像。

#響鈴說   Focusing on企業(yè)數字化與產業(yè)智能化升級,這是關注一切與創(chuàng)業(yè)、產業(yè)和商業(yè)相關的降本增效新技術、新模式、新生態(tài) NO.399深度解讀

【完】

曾響鈴

1鈦媒體、人人都是產品經理等多家創(chuàng)投、科技網站年度十大作者;

2 虎嘯獎評委;長沙市委統(tǒng)戰(zhàn)部旗下網絡名人聯盟成員;

3 作家:【移動互聯網+ 新常態(tài)下的商業(yè)機會】等暢銷書作者;

4 《中國經營報》《商界》《商界評論》《銷售與市場》等近十家報刊、雜志特約評論員;

5 鈦媒體、36kr、虎嗅、界面、澎湃新聞等近80家專欄作者;

6 “腦藝人”(腦力手藝人)概念提出者,現演變?yōu)?ldquo;自媒體”,成為一個行業(yè);

7 騰訊全媒派榮譽導師、功夫財經學者矩陣成員、多家科技智能公司傳播顧問。

申請創(chuàng)業(yè)報道,分享創(chuàng)業(yè)好點子。點擊此處,共同探討創(chuàng)業(yè)新機遇!

相關標簽
大模型

相關文章

熱門排行

信息推薦