近日,華為數(shù)據(jù)存儲(chǔ)產(chǎn)品線發(fā)布了AI容器技術(shù)——Flex:ai,同時(shí)華為聯(lián)合上海交通大學(xué)、西安交通大學(xué)與廈門大學(xué)共同宣布,將此項(xiàng)產(chǎn)學(xué)合作成果向外界開(kāi)源,助力破解算力資源利用難題。
當(dāng)前,AI產(chǎn)業(yè)高速發(fā)展催生海量算力需求,但全球算力資源利用率偏低的問(wèn)題日益凸顯,“算力資源浪費(fèi)”成為產(chǎn)業(yè)發(fā)展的關(guān)鍵桎梏:小模型任務(wù)獨(dú)占整卡導(dǎo)致資源閑置,大模型任務(wù)單機(jī)算力不足難以支撐,大量缺乏GPU/NPU的通用服務(wù)器更是處于算力“休眠”狀態(tài),供需錯(cuò)配造成嚴(yán)重的資源浪費(fèi)。
華為數(shù)據(jù)存儲(chǔ)產(chǎn)品線總裁周躍峰
本次發(fā)布并開(kāi)源的Flex:ai XPU池化與調(diào)度軟件,是基于Kubernetes容器編排平臺(tái)構(gòu)建,通過(guò)對(duì)GPU、NPU等智能算力資源的精細(xì)化管理與智能調(diào)度,實(shí)現(xiàn)AI工作負(fù)載與算力資源的精準(zhǔn)匹配,可大幅提升算力利用率。該技術(shù)深度融合了三大高校與華為的科研力量,形成三大核心技術(shù)突破。
針對(duì)AI小模型訓(xùn)推場(chǎng)景中“一張卡跑一個(gè)任務(wù)”的資源浪費(fèi)問(wèn)題,華為與上海交通大學(xué)聯(lián)合研發(fā)XPU池化框架,可將單張GPU或NPU算力卡切分為多份虛擬算力單元,切分粒度精準(zhǔn)至10%。這一技術(shù)實(shí)現(xiàn)了單卡同時(shí)承載多個(gè)AI工作負(fù)載,且通過(guò)彈性靈活的資源隔離技術(shù),可實(shí)現(xiàn)算力單元的按需切分,“用多少,切多少”,使此類場(chǎng)景下的整體算力平均利用率提升30%,提高單卡服務(wù)能力。
針對(duì)大量通用服務(wù)器因缺乏智能計(jì)算單元而無(wú)法服務(wù)于AI工作負(fù)載的問(wèn)題,華為與廈門大學(xué)聯(lián)合研發(fā)跨節(jié)點(diǎn)拉遠(yuǎn)虛擬化技術(shù)。該技術(shù)將集群內(nèi)各節(jié)點(diǎn)的空閑XPU算力聚合形成“共享算力池”,一方面為高算力需求的AI工作負(fù)載提供充足資源支撐;另一方面,可讓不具備智能計(jì)算能力的通用服務(wù)器通過(guò)高速網(wǎng)絡(luò),將AI工作負(fù)載轉(zhuǎn)發(fā)到遠(yuǎn)端“資源池”中的GPU/NPU算力卡中執(zhí)行,從而促進(jìn)通用算力與智能算力資源融合。
面對(duì)算力集群中多品牌、多規(guī)格異構(gòu)算力資源難以統(tǒng)一調(diào)度的痛點(diǎn),華為與西安交通大學(xué)共同打造Hi Scheduler智能調(diào)度器。該調(diào)度器可自動(dòng)感知集群負(fù)載與資源狀態(tài),結(jié)合AI工作負(fù)載的優(yōu)先級(jí)、算力需求等多維參數(shù),對(duì)本地及遠(yuǎn)端的虛擬化GPU、NPU資源進(jìn)行全局最優(yōu)調(diào)度,實(shí)現(xiàn)AI工作負(fù)載分時(shí)復(fù)用資源。即便在負(fù)載頻繁波動(dòng)的場(chǎng)景下,也能保障AI工作負(fù)載的平穩(wěn)運(yùn)行,讓每一份算力都“物盡其用”。
本文鏈接:破解算力資源利用難題,華為聯(lián)合三大高校發(fā)布并開(kāi)源AI容器技術(shù)http://www.sq15.cn/show-3-159650-0.html
聲明:本網(wǎng)站為非營(yíng)利性網(wǎng)站,本網(wǎng)頁(yè)內(nèi)容由互聯(lián)網(wǎng)博主自發(fā)貢獻(xiàn),不代表本站觀點(diǎn),本站不承擔(dān)任何法律責(zé)任。天上不會(huì)到餡餅,請(qǐng)大家謹(jǐn)防詐騙!若有侵權(quán)等問(wèn)題請(qǐng)及時(shí)與本網(wǎng)聯(lián)系,我們將在第一時(shí)間刪除處理。