亚洲精品国产自产拍在线观看_欧洲亚洲国产日韩综合一区_午夜亚洲精品在线视频免费观看_日韩在线观看欧美尤物_亚洲AV成人无码一二三久久_国产精品无码中出在线_麻豆精品一区二区综合A∨_成年男女免费视频网站慢动作_377p人体大尺度啪啪_另类亚洲欧美偷拍

  • 干柴烈火網(wǎng)干柴烈火網(wǎng)

    全流程國(guó)產(chǎn)GPU,上下文提速100倍!中國(guó)科學(xué)院發(fā)布「線性復(fù)雜度」類(lèi)腦大模型

    新智元報(bào)道

    編輯:LRST

    【新智元導(dǎo)讀】SpikingBrain借鑒大腦信息處理機(jī)制,具有線性/近線性復(fù)雜度,在超長(zhǎng)序列上具有顯著速度優(yōu)勢(shì),在GPU上1M長(zhǎng)度下TTFT 速度相比主流大模型提升26.5x, 4M長(zhǎng)度下保守估計(jì)速度提升超過(guò)100x;在手機(jī)CPU端64k-128k-256k長(zhǎng)度下較Llama3.2的同規(guī)模模型Decoding速度提升4.04x-7.52x-15.39x,展示了通過(guò)借鑒大腦結(jié)構(gòu)和功能構(gòu)建新一代AI基礎(chǔ)模型和架構(gòu)的研究路徑具有強(qiáng)大潛力。

    當(dāng)前主流大模型基于Transformer架構(gòu)、在Scaling law驅(qū)動(dòng)下通過(guò)增加網(wǎng)絡(luò)規(guī)模、算力資源和數(shù)據(jù)量提升智能水平并取得了巨大成功。

    然而,Transformer架構(gòu)相對(duì)于序列長(zhǎng)度具有二次方復(fù)雜度,使其訓(xùn)練和推理開(kāi)銷(xiāo)巨大,超長(zhǎng)序列處理能力受限。

    近日,中國(guó)科學(xué)院自動(dòng)化研究所李國(guó)齊、徐波團(tuán)隊(duì)借鑒大腦神經(jīng)元內(nèi)部復(fù)雜工作機(jī)制,發(fā)布了國(guó)產(chǎn)自主可控類(lèi)腦脈沖大模型SpikingBrain (瞬悉)-1.0,能夠以極低的數(shù)據(jù)量實(shí)現(xiàn)高效訓(xùn)練,模型具有線性/近線性復(fù)雜度,顯著提升長(zhǎng)序列的訓(xùn)練和推理效率,訓(xùn)練和推理全流程在國(guó)產(chǎn)GPU算力平臺(tái)上完成。

    網(wǎng)絡(luò)端的試用端口網(wǎng)址:https://controller-fold-injuries-thick.trycloudflare.com

    中文技術(shù)報(bào)告網(wǎng)址:https://github.com/BICLab/SpikingBrain-7B/blob/main/SpikingBrain_Report_Chi.pdf

    英文技術(shù)報(bào)告網(wǎng)址: https://arxiv.org/abs/2509.05276

    模型代碼網(wǎng)址:https://github.com/BICLab/SpikingBrain-7B

    研究背景

    現(xiàn)有主流大模型基于Transformer架構(gòu),其基本計(jì)算單元為點(diǎn)神經(jīng)元模型:簡(jiǎn)單乘加單元后接非線性函數(shù),這條簡(jiǎn)單神經(jīng)元加網(wǎng)絡(luò)規(guī)模拓展的技術(shù)路徑可以被稱(chēng)為「基于外生復(fù)雜性」的通用智能實(shí)現(xiàn)方法。

    如前所述,這一路徑面臨著功耗高、可解釋性差等問(wèn)題。

    人腦是目前唯一已知的通用智能系統(tǒng),包含約1000億神經(jīng)元和約1000萬(wàn)億突觸數(shù)量、具有豐富的神經(jīng)元種類(lèi)、不同神經(jīng)元又具有豐富的內(nèi)部結(jié)構(gòu),但功耗僅20W左右。

    鑒此,李國(guó)齊研究團(tuán)隊(duì)相信還有另一條路徑-「基于內(nèi)生復(fù)雜性」的通用智能實(shí)現(xiàn)方法:即找到一條融合神經(jīng)元豐富動(dòng)力學(xué)特性、構(gòu)建具有生物合理性和計(jì)算高效性的神經(jīng)網(wǎng)絡(luò)新路徑,其將充分利用生物神經(jīng)網(wǎng)絡(luò)在神經(jīng)元和神經(jīng)環(huán)路上的結(jié)構(gòu)和功能特性。

    在該思路下,探索腦科學(xué)與人工智能基礎(chǔ)模型架構(gòu)之間的橋梁、構(gòu)建新一代非Transformer的類(lèi)腦基礎(chǔ)模型架構(gòu),或?qū)⒁I(lǐng)下一代人工智能的發(fā)展方向、為實(shí)現(xiàn)國(guó)產(chǎn)自主可控類(lèi)腦大模型生態(tài)提供基礎(chǔ)積累。

    核心技術(shù)

    SpikingBrain-1.0基于脈沖神經(jīng)元構(gòu)建了線性(混合)模型架構(gòu),具有線性(SpikingBrain-7B)及近線性復(fù)雜度(SpikingBrain-76B,激活參數(shù)量12B)的類(lèi)腦基礎(chǔ)模型(圖1)。

    圖1. SpikingBrain框架概覽

    為解決脈沖編碼時(shí)的性能退化問(wèn)題,構(gòu)建了自適應(yīng)閾值神經(jīng)元模型,模擬生物神經(jīng)元脈沖發(fā)放的核心過(guò)程,隨后通過(guò)虛擬時(shí)間步策略實(shí)現(xiàn)「電位-脈沖」的轉(zhuǎn)換,將整數(shù)脈沖計(jì)數(shù)重新展開(kāi)為稀疏脈沖序列。

    借助動(dòng)態(tài)閾值脈沖化信息編碼方案,可以將模型中計(jì)算量占比90%以上的稠密連續(xù)值矩陣乘法,替換為支持事件驅(qū)動(dòng)的脈沖化算子,以實(shí)現(xiàn)高性能與低能耗二者兼顧:脈沖神經(jīng)元僅在膜電勢(shì)累積達(dá)到閾值時(shí)發(fā)放脈沖事件,脈沖到達(dá)時(shí)觸發(fā)下游神經(jīng)元活動(dòng),無(wú)脈沖時(shí)則可處于低能耗靜息狀態(tài)。

    進(jìn)一步,網(wǎng)絡(luò)層面的MoE架構(gòu)結(jié)合神經(jīng)元層面的稀疏事件驅(qū)動(dòng)計(jì)算,可提供微觀-宏觀層面的稀疏化方案,體現(xiàn)按需計(jì)算的高效算力分配。

    該團(tuán)隊(duì)在理論上建立了脈沖神經(jīng)元內(nèi)生動(dòng)力學(xué)與線性注意力模型之間的聯(lián)系,揭示了現(xiàn)有線性注意力機(jī)制是樹(shù)突計(jì)算的特殊簡(jiǎn)化形式,從而清晰地展示了一條不斷提升模型復(fù)雜度和性能的新型可行路徑。

    基于這一理解以及團(tuán)隊(duì)前期工作,團(tuán)隊(duì)構(gòu)建了與現(xiàn)有大模型兼容的通用模型轉(zhuǎn)換技術(shù)和高效訓(xùn)練范式,可以將標(biāo)準(zhǔn)的自注意力機(jī)制轉(zhuǎn)換為低秩的線性注意力模型,并適配了所提出的脈沖化編碼框架。

    此外,為實(shí)現(xiàn)國(guó)產(chǎn)算力集群對(duì)類(lèi)腦脈沖大模型的全流程訓(xùn)練和推理支持,團(tuán)隊(duì)開(kāi)發(fā)了面向國(guó)產(chǎn)GPU集群的高效訓(xùn)練和推理框架、Triton/CUDA 算子庫(kù)、模型并行策略以及集群通信原語(yǔ)。

    SpikingBrain-7B 和SpikingBrain-76B分別為層間混合純線性模型和層內(nèi)混合的混合線性 MoE 模型(圖2)。

    其中SpikingBrain-7B由線性注意力和滑窗注意力1:1層間堆疊而成。而SpikingBrain-76B則包含 128 個(gè) sink token、16個(gè)路由專(zhuān)家以及1個(gè)共享專(zhuān)家;對(duì)于線性層,在第 [1, 2, 3, 5, 7, 9, 11] 層布置了7個(gè)稠密FFN,其余層均實(shí)現(xiàn)為MoE層;

    對(duì)于注意力模塊在第[7, 14, 21, 28]層采用線性注意力+Softmax注意力(LA+FA)組合,在其他層均采用線性注意力+ 滑窗注意力(LA+SWA)組合。

    在推理階段,SpikingBrain利用脈沖編碼將激活值轉(zhuǎn)換為整數(shù)計(jì)數(shù)用于GPU執(zhí)行,或轉(zhuǎn)換為脈沖序列用于事件驅(qū)動(dòng)的神經(jīng)形態(tài)硬件。

    圖2. SpikingBrain網(wǎng)絡(luò)架構(gòu)

    性能亮點(diǎn)

    SpikingBrain1.0的長(zhǎng)序列訓(xùn)練效率顯著提升。SpikingBrain-1.0-7B模型能以極低的數(shù)據(jù)量(約為主流大模型的2%),實(shí)現(xiàn)與眾多開(kāi)源Transformer模型相媲美的通用語(yǔ)言建模性能(表1)。

    SpikingBrain-1.0-76B混合線形模型通過(guò)擴(kuò)展更多的參數(shù)量和更精細(xì)的注意力設(shè)計(jì),基本保持了基座模型的性能,能使用更少的激活參數(shù)接近甚至優(yōu)于Llama2-70B、Mixtral-8*7B、Gemma2-27B等先進(jìn)的Transformer模型(表2)。

    SpikingBrain-1.0-7B模型在Huggingface框架下適配了多卡序列并行推理(使用ZeCO加上P2P通信),并支持4M長(zhǎng)度的Prefill。

    結(jié)果顯示,相比于使用標(biāo)準(zhǔn)注意力和A2A通信的Qwen baseline,SpikingBrain-1.0-7B在512K和1M長(zhǎng)度下TTFT(提交提示到生成第一個(gè)Token所需的時(shí)間)加速分別達(dá)到13.88倍和26.5倍,且隨序列長(zhǎng)度和卡數(shù)擴(kuò)展具有幾乎恒定的時(shí)間開(kāi)銷(xiāo),在4M長(zhǎng)度下Qwen已經(jīng)無(wú)法評(píng)測(cè),根據(jù)擬合scaling曲線,保守估計(jì)速度提升超過(guò)100倍(表4)。

    團(tuán)隊(duì)將壓縮到1B的SpikingBrain-1.0部署到CPU手機(jī)端推理框架上,在64k-128k-256k長(zhǎng)度下較Llama3.2的1B模型Decoding速度分別提升4.04x-7.52x-15.39x。

    圖2 基于CPU移動(dòng)推理框架下,不同輸出長(zhǎng)度的解碼速度比較

    對(duì)話Demo和網(wǎng)絡(luò)試用端口:團(tuán)隊(duì)提供了SpikingBrain-1.0-76B模型的網(wǎng)絡(luò)端的試用端口供大家體驗(yàn),該模型基于vLLM推理框架部署在國(guó)產(chǎn)GPU集群上,可以支持?jǐn)?shù)百人的并發(fā)請(qǐng)求。

    為支持類(lèi)腦研究生態(tài)的構(gòu)建,團(tuán)隊(duì)開(kāi)源了SpikingBrain-1.0-7B模型(詳見(jiàn)技術(shù)報(bào)告)。

    總結(jié)

    本次發(fā)布的國(guó)產(chǎn)自主可控類(lèi)腦脈沖大模型探索了脈沖神經(jīng)元內(nèi)生復(fù)雜神經(jīng)動(dòng)力學(xué)與線性注意力模型之間的機(jī)制聯(lián)系,設(shè)計(jì)了線性模型架構(gòu)和基于轉(zhuǎn)換的異構(gòu)模型架構(gòu),通過(guò)動(dòng)態(tài)閾值脈沖化解決了脈沖驅(qū)動(dòng)限制下的大規(guī)模類(lèi)腦模型性能退化問(wèn)題,實(shí)現(xiàn)了國(guó)產(chǎn)GPU算力集群對(duì)類(lèi)腦脈沖大模型訓(xùn)練和推理的全流程支持。

    超長(zhǎng)序列的建模在復(fù)雜多智能體模擬、DNA序列分析、分子動(dòng)力學(xué)軌跡等超長(zhǎng)序列科學(xué)任務(wù)建模場(chǎng)景中將具有顯著的潛在效率優(yōu)勢(shì)。

    未來(lái)該團(tuán)隊(duì)將進(jìn)一步探索神經(jīng)元內(nèi)生復(fù)雜動(dòng)態(tài)與人工智能基礎(chǔ)算子之間的機(jī)制聯(lián)系,構(gòu)建神經(jīng)科學(xué)和人工智能之間的橋梁,期望通過(guò)整合生物學(xué)見(jiàn)解來(lái)突破現(xiàn)有人工智能瓶頸,進(jìn)而實(shí)現(xiàn)低功耗、高性能、支持超長(zhǎng)上下文窗口的類(lèi)腦通用智能計(jì)算模型,為未來(lái)的類(lèi)腦芯片設(shè)計(jì)提供重要啟發(fā)。

    參考資料:

    https://github.com/BICLab/SpikingBrain-7B/blob/main/SpikingBrain_Report_Chi.pdf

    贊(6406)
    未經(jīng)允許不得轉(zhuǎn)載:>干柴烈火網(wǎng)»全流程國(guó)產(chǎn)GPU,上下文提速100倍!中國(guó)科學(xué)院發(fā)布「線性復(fù)雜度」類(lèi)腦大模型