點擊右上角微信好友
朋友圈
請使用瀏覽器分享功能進(jìn)行分享
據(jù)財聯(lián)社9月18日消息,由DeepSeek團(tuán)隊共同完成、梁文鋒擔(dān)任通訊作者的DeepSeek-R1推理模型研究論文,登上了國際權(quán)威期刊《自然(Nature)》的封面。
與今年1月發(fā)布的DeepSeek-R1的初版論文相比,本次論文披露了更多模型訓(xùn)練的細(xì)節(jié),并正面回應(yīng)了模型發(fā)布之初的蒸餾質(zhì)疑。DeepSeek-R1也是全球首個經(jīng)過同行評審的主流大語言模型。Nature評價道:目前幾乎所有主流的大模型都還沒有經(jīng)過獨立同行評審,這一空白“終于被DeepSeek打破”。
《科技日報》則在報道中介紹稱,梁文鋒參與的研究表明,大語言模型的推理能力可通過純強化學(xué)習(xí)來提升,從而減少增強性能所需的人類輸入工作量。訓(xùn)練出的模型在數(shù)學(xué)和STEM領(lǐng)域研究生水平問題等任務(wù)上,比傳統(tǒng)訓(xùn)練的大語言模型表現(xiàn)更好。
DeepSeek-R1包含一個在人類監(jiān)督下的深入訓(xùn)練階段,以優(yōu)化推理過程。梁文鋒團(tuán)隊報告稱,該模型使用了強化學(xué)習(xí)而非人類示例來開發(fā)推理步驟,減少了訓(xùn)練成本和復(fù)雜性。DeepSeek-R1在被展示優(yōu)質(zhì)的問題解決案例后,會獲得一個模板來產(chǎn)生推理過程,即這一模型通過解決問題獲得獎勵,從而強化學(xué)習(xí)效果。在評估AI表現(xiàn)的各項測試中,DeepSeek-R1-Zero和DeepSeek-R1的表現(xiàn)都十分優(yōu)異。
梁文鋒團(tuán)隊總結(jié)說,未來研究可以聚焦優(yōu)化獎勵過程,以確保推理和任務(wù)結(jié)果更可靠。
本文系網(wǎng)獨家稿件,未經(jīng)授權(quán),不得轉(zhuǎn)載。