亚洲欧美日韩性爱|一级黄片视频一级黄色片视频|免费三级色情电影|岛国不封黄色网址|久久国产亚洲视频|影音先锋无码中文字幕|日韩一级免费在线|igao网站在线观看|成人久久蜜桃一级a黄片|A片在线观看网址

詳解:本土AI超節(jié)點元腦SD200如何率先實現(xiàn)token生成速度8.9ms

2025-11-10 11:19

北京2025年11月10日 /美通社/ -- 近日,在2025人工智能計算大會上,浪潮信息公布,基于元腦SD200超節(jié)點AI服務(wù)器,DeepSeek R1大模型token生成速度僅需8.9毫秒,創(chuàng)造國內(nèi)大模型最快token生成速度。


元腦SD200創(chuàng)新設(shè)計滿足低延遲推理需求

智能體時代的標(biāo)志性特征是多模型協(xié)同與實時決策,每個智能體具備感知-決策-執(zhí)行的閉環(huán)能力,涉及復(fù)雜的、多步驟的工作流,需要任務(wù)分解、自主決策以及持續(xù)的規(guī)劃和執(zhí)行。在智能體推理的過程中,即使是單個推理步驟中的延遲也會在多步驟任務(wù)中被指數(shù)級放大,導(dǎo)致用戶體驗遲滯。因此,token生成速度正成為影響用戶評價的一個關(guān)鍵指標(biāo)。

元腦SD200超節(jié)點AI服務(wù)器基于高帶寬、低延時、原生內(nèi)存語義的開放總線協(xié)議,通過構(gòu)建高性能交換單元打造3D Mesh高性能互連超擴展系統(tǒng),支持64張本土AI芯片高密度算力擴展,能夠很好地滿足DeepSeek等大模型的低延遲推理需求,加快token生成速度。


  • 精簡互連協(xié)議:采用事務(wù)層-數(shù)據(jù)鏈路層-物理層三層精簡互連協(xié)議,事務(wù)層天然支持Load/Store內(nèi)存語義;數(shù)據(jù)鏈路層支持基于信用的流控機制和鏈路級錯誤重傳保障;物理層建立10-12低誤碼率的高可靠物理通道,報文有效數(shù)據(jù)利用率達成96%以上。
  • 全局統(tǒng)一編址:為解決跨主機域通信難題,設(shè)計獨立于主機域的交換域全局地址空間,將多個獨立主機域下的GPU在交換域進行統(tǒng)一的顯存編址,為GPU互訪提供基礎(chǔ)保障。
  • 全局地址映射與數(shù)據(jù)路由:創(chuàng)新研發(fā)影子設(shè)備技術(shù),通過影子設(shè)備將遠端GPU映射到本地主機域,實現(xiàn)所有獨立主機對全局GPU的顯存訪問,通過端口高效轉(zhuǎn)發(fā)技術(shù)實現(xiàn)跨主機P2P訪問。


定制通信算法深度適配元腦SD200

除了硬件方面的創(chuàng)新,浪潮信息AI團隊也針對DeepSeek、Kimi等模型的計算特征和元腦SD200的硬件架構(gòu)特征,完成了通信庫、計算框架層面等多方面的優(yōu)化,充分發(fā)揮了元腦SD200的計算性能,最終實現(xiàn)了低延遲推理。同時,也支持預(yù)填充-解碼 (Prefill-Decode) 分離推理,在滿足客戶業(yè)務(wù)場景SLO需求的基礎(chǔ)上提供更高性能。

通信庫層面,針對Allreduce、Allgather、Alltoall等典型通信算子,浪潮信息制定了與元腦SD200深度適配的通信算法。例如,對于Allreduce,為了充分發(fā)揮元腦SD200的低延遲優(yōu)勢,專為Allreduce設(shè)計了分層算法策略:針對小數(shù)據(jù)量,采用全量收集,本地規(guī)約的低延遲定制One-Shot算法,旨在最小化GPU間的同步與通信開銷;針對大數(shù)據(jù)量,采用高吞吐的定制化環(huán)形算法,以徹底解決帶寬瓶頸并實現(xiàn)最優(yōu)帶寬利用率。而對于模型應(yīng)用中最常見的中等數(shù)據(jù)量,則采用兼顧延遲與帶寬的定制Two-Shot算法。浪潮信息更結(jié)合芯片緩存特性對此核心場景進行了深度優(yōu)化:對中小數(shù)據(jù)量啟用無緩存方案以追求極致延遲;對中大數(shù)據(jù)量則啟用緩存方案,從而最大化吞吐效率。

實測數(shù)據(jù)表明,在64 GPU集群上進行DeepSeek R1 671B模型的BF16推理時,針對Batch Size為1的decode階段(其Allreduce數(shù)據(jù)量約為14 KB),優(yōu)化后的算法將通信時延降低了5.8倍。此外,在16 KB至16 MB這一核心數(shù)據(jù)量區(qū)間內(nèi),定制優(yōu)化算法的通信時延相較于未優(yōu)化前的實現(xiàn)降低了1.6至5.8倍;與傳統(tǒng)scale-out系統(tǒng)相比,時延降低幅度則進一步擴大至4.5至12.7倍。

全方位框架優(yōu)化保障計算低延遲

框架層面,浪潮信息AI團隊完成了并行方式、算子融合、多流水線等多方面優(yōu)化,來保證計算的低延遲。

首先,在并行方式上,選擇了整網(wǎng)的張量并行。在此并行模式下,通過模型均勻切分實現(xiàn)了設(shè)備間計算負(fù)載的完全均衡、各個計算板卡之間計算的完全并行和同步,消除了流水線氣泡與負(fù)載不均衡問題。同時,元腦SD200的高帶寬、低延遲確保了AllReduce、AllGather等通信算子性能的大幅提升,使得通信時間大幅下降,從而實現(xiàn)了超低延遲的推理性能。

其次,在算子上,實現(xiàn)了極致的算子融合等優(yōu)化。GPU的計算速度遠遠超過了內(nèi)存帶寬的訪問速度,從內(nèi)存中讀寫數(shù)據(jù)的時間成本,大部分時候比實際進行計算的時間成本還要高。算子融合可以通過減少不必要的內(nèi)存讀寫和計算開銷,來顯著提升推理速度、降低延遲并減少內(nèi)存占用,所以基于SGlang框架的已有實現(xiàn),進行了多個算子的融合。

  • 對MLA模塊中attn_mla計算前的算子進行融合,該融合算子以Query和Key向量進行RMSnorm計算后的輸出為輸入,以attn_mla計算的輸入q_input、k_input、v_input等為輸出,包含bmm計算、rotary_emb計算以及向量拆分轉(zhuǎn)置等計算;
  • RMSNorm和add計算融合;
  • 實現(xiàn)int8精度的量化和RMSNorm、silu等激活函數(shù)的融合;
  • 將路由專家分組選擇中多個算子的融合為一個算子。

最后,也進行了多stream的優(yōu)化。多個算子計算時,默認(rèn)在單stream模式下,所有操作都排成一條隊,一個接一個地執(zhí)行。當(dāng)算子本身的計算量不是很大時,會導(dǎo)致GPU的部分硬件單元在計算時處于空閑狀態(tài),也就浪費了計算資源。多stream優(yōu)化就是為了讓這些硬件單元"同時忙起來",對于相互之間沒有依賴關(guān)系的操作,可以放到不同的stream中并行執(zhí)行,提高硬件的利用效率,同時減小整體的計算時間。在多stream并行優(yōu)化方面,浪潮信息實現(xiàn)了MLA層的多個layernorm計算的并行,并實現(xiàn)了MoE階段和共享專家計算和路由專家分組選擇的并行等,實現(xiàn)了約10%的性能提升。

預(yù)填充-解碼分離軟件提高整體計算性能

此外,浪潮信息開發(fā)了預(yù)填充-解碼 (Prefill-Decode) 分離軟件,針對預(yù)填充與解碼不同的計算特性,使用不同的并行計算策略、硬件配置等,提高系統(tǒng)整體的計算性能。同時在業(yè)務(wù)部署中,支持節(jié)點服務(wù)的動態(tài)擴展;支持利用負(fù)載均衡和鍵值緩存(KV cache)命中率進行任務(wù)分配,把任務(wù)下發(fā)到鍵值緩存匹配度相對較高、任務(wù)負(fù)載相對較小的節(jié)點,減少重復(fù)計算,同時最大化計算資源利用率。另外,PD分離軟件還實現(xiàn)了鍵值緩存offload技術(shù),可把鍵值緩存到CPU端內(nèi)存與分布式存儲系統(tǒng)上,增大緩存空間。


元腦SD200超節(jié)點AI服務(wù)器通過高帶寬和超低延遲通信、超大顯存池、智能路由優(yōu)化、PD分離推理等創(chuàng)新技術(shù),大幅提升了DeepSeek、Kimi等大模型的推理輸出速度。元腦SD200搭載64張本土AI芯片運行DeepSeek R1大模型,當(dāng)輸入長度為4096、輸出長度為1024時,單用戶token生成達到112 tokens/s,每token生成時間僅為8.9ms,率先實現(xiàn)國內(nèi)AI服務(wù)器token生成速度低于10ms,將推動萬億參數(shù)大模型在金融、科研、智能制造等領(lǐng)域快速落地。

消息來源:浪潮信息