北京2025年11月10日 /美通社/ -- 近日,在2025人工智能計算大會上,浪潮信息公布,基于元腦SD200超節(jié)點AI服務(wù)器,DeepSeek R1大模型token生成速度僅需8.9毫秒,創(chuàng)造國內(nèi)大模型最快token生成速度。
元腦SD200創(chuàng)新設(shè)計滿足低延遲推理需求
智能體時代的標(biāo)志性特征是多模型協(xié)同與實時決策,每個智能體具備感知-決策-執(zhí)行的閉環(huán)能力,涉及復(fù)雜的、多步驟的工作流,需要任務(wù)分解、自主決策以及持續(xù)的規(guī)劃和執(zhí)行。在智能體推理的過程中,即使是單個推理步驟中的延遲也會在多步驟任務(wù)中被指數(shù)級放大,導(dǎo)致用戶體驗遲滯。因此,token生成速度正成為影響用戶評價的一個關(guān)鍵指標(biāo)。
元腦SD200超節(jié)點AI服務(wù)器基于高帶寬、低延時、原生內(nèi)存語義的開放總線協(xié)議,通過構(gòu)建高性能交換單元打造3D Mesh高性能互連超擴展系統(tǒng),支持64張本土AI芯片高密度算力擴展,能夠很好地滿足DeepSeek等大模型的低延遲推理需求,加快token生成速度。
定制通信算法深度適配元腦SD200
除了硬件方面的創(chuàng)新,浪潮信息AI團隊也針對DeepSeek、Kimi等模型的計算特征和元腦SD200的硬件架構(gòu)特征,完成了通信庫、計算框架層面等多方面的優(yōu)化,充分發(fā)揮了元腦SD200的計算性能,最終實現(xiàn)了低延遲推理。同時,也支持預(yù)填充-解碼 (Prefill-Decode) 分離推理,在滿足客戶業(yè)務(wù)場景SLO需求的基礎(chǔ)上提供更高性能。
通信庫層面,針對Allreduce、Allgather、Alltoall等典型通信算子,浪潮信息制定了與元腦SD200深度適配的通信算法。例如,對于Allreduce,為了充分發(fā)揮元腦SD200的低延遲優(yōu)勢,專為Allreduce設(shè)計了分層算法策略:針對小數(shù)據(jù)量,采用全量收集,本地規(guī)約的低延遲定制One-Shot算法,旨在最小化GPU間的同步與通信開銷;針對大數(shù)據(jù)量,采用高吞吐的定制化環(huán)形算法,以徹底解決帶寬瓶頸并實現(xiàn)最優(yōu)帶寬利用率。而對于模型應(yīng)用中最常見的中等數(shù)據(jù)量,則采用兼顧延遲與帶寬的定制Two-Shot算法。浪潮信息更結(jié)合芯片緩存特性對此核心場景進行了深度優(yōu)化:對中小數(shù)據(jù)量啟用無緩存方案以追求極致延遲;對中大數(shù)據(jù)量則啟用緩存方案,從而最大化吞吐效率。
實測數(shù)據(jù)表明,在64 GPU集群上進行DeepSeek R1 671B模型的BF16推理時,針對Batch Size為1的decode階段(其Allreduce數(shù)據(jù)量約為14 KB),優(yōu)化后的算法將通信時延降低了5.8倍。此外,在16 KB至16 MB這一核心數(shù)據(jù)量區(qū)間內(nèi),定制優(yōu)化算法的通信時延相較于未優(yōu)化前的實現(xiàn)降低了1.6至5.8倍;與傳統(tǒng)scale-out系統(tǒng)相比,時延降低幅度則進一步擴大至4.5至12.7倍。
全方位框架優(yōu)化保障計算低延遲
框架層面,浪潮信息AI團隊完成了并行方式、算子融合、多流水線等多方面優(yōu)化,來保證計算的低延遲。
首先,在并行方式上,選擇了整網(wǎng)的張量并行。在此并行模式下,通過模型均勻切分實現(xiàn)了設(shè)備間計算負(fù)載的完全均衡、各個計算板卡之間計算的完全并行和同步,消除了流水線氣泡與負(fù)載不均衡問題。同時,元腦SD200的高帶寬、低延遲確保了AllReduce、AllGather等通信算子性能的大幅提升,使得通信時間大幅下降,從而實現(xiàn)了超低延遲的推理性能。
其次,在算子上,實現(xiàn)了極致的算子融合等優(yōu)化。GPU的計算速度遠遠超過了內(nèi)存帶寬的訪問速度,從內(nèi)存中讀寫數(shù)據(jù)的時間成本,大部分時候比實際進行計算的時間成本還要高。算子融合可以通過減少不必要的內(nèi)存讀寫和計算開銷,來顯著提升推理速度、降低延遲并減少內(nèi)存占用,所以基于SGlang框架的已有實現(xiàn),進行了多個算子的融合。
最后,也進行了多stream的優(yōu)化。多個算子計算時,默認(rèn)在單stream模式下,所有操作都排成一條隊,一個接一個地執(zhí)行。當(dāng)算子本身的計算量不是很大時,會導(dǎo)致GPU的部分硬件單元在計算時處于空閑狀態(tài),也就浪費了計算資源。多stream優(yōu)化就是為了讓這些硬件單元"同時忙起來",對于相互之間沒有依賴關(guān)系的操作,可以放到不同的stream中并行執(zhí)行,提高硬件的利用效率,同時減小整體的計算時間。在多stream并行優(yōu)化方面,浪潮信息實現(xiàn)了MLA層的多個layernorm計算的并行,并實現(xiàn)了MoE階段和共享專家計算和路由專家分組選擇的并行等,實現(xiàn)了約10%的性能提升。
預(yù)填充-解碼分離軟件提高整體計算性能
此外,浪潮信息開發(fā)了預(yù)填充-解碼 (Prefill-Decode) 分離軟件,針對預(yù)填充與解碼不同的計算特性,使用不同的并行計算策略、硬件配置等,提高系統(tǒng)整體的計算性能。同時在業(yè)務(wù)部署中,支持節(jié)點服務(wù)的動態(tài)擴展;支持利用負(fù)載均衡和鍵值緩存(KV cache)命中率進行任務(wù)分配,把任務(wù)下發(fā)到鍵值緩存匹配度相對較高、任務(wù)負(fù)載相對較小的節(jié)點,減少重復(fù)計算,同時最大化計算資源利用率。另外,PD分離軟件還實現(xiàn)了鍵值緩存offload技術(shù),可把鍵值緩存到CPU端內(nèi)存與分布式存儲系統(tǒng)上,增大緩存空間。
元腦SD200超節(jié)點AI服務(wù)器通過高帶寬和超低延遲通信、超大顯存池、智能路由優(yōu)化、PD分離推理等創(chuàng)新技術(shù),大幅提升了DeepSeek、Kimi等大模型的推理輸出速度。元腦SD200搭載64張本土AI芯片運行DeepSeek R1大模型,當(dāng)輸入長度為4096、輸出長度為1024時,單用戶token生成達到112 tokens/s,每token生成時間僅為8.9ms,率先實現(xiàn)國內(nèi)AI服務(wù)器token生成速度低于10ms,將推動萬億參數(shù)大模型在金融、科研、智能制造等領(lǐng)域快速落地。