紫牛热点|DeepSeek团队发表重磅论文,《自然》配发社论狂赞呼吁同行效仿
来源: 紫牛新闻
2025-09-18 21:05:00
DeepSeek-R1推理模型研究论文登上《自然(Nature)》封面
9月17日,由DeepSeek团队共同完成、梁文锋担任通讯作者的DeepSeek-R1推理模型研究论文,登上了国际权威期刊《自然(Nature)》的封面。《自然》还配发社论,表示DeepSeek-R1是全球首个经过同行评审的主流大语言模型,对于AI模型开发具有重要意义,呼吁其他公司应效仿这一做法。
这篇论文刊登在最新一期《自然》,与今年1月发布的DeepSeek-R1的初版论文相比,披露了更多模型训练的细节。论文作者称,大语言模型(LLM)的推理能力可通过纯强化学习来提升,从而减少增强性能所需的人类输入工作量。训练出的模型在数学、编程竞赛和STEM领域研究生水平问题等任务上,比传统训练的LLM表现更好。
《自然(Nature)》杂志发表社论
《自然》特意配发社论“为何同行评审对AI模型至关重要”,表示目前几乎所有主流的大模型都还没有经过独立同行评审,这一空白“终于被DeepSeek打破”。
同行评审是学术和研究领域的一项核心质量把关流程,是研究成果在正式发表之前,接受同一领域的其他匿名专家的评估、审核和意见。
考虑到大语言模型(LLM)对人类文明发展具有重要意见,而且可能存在很大的风险,同行评审尤为重要。然而,目前接受同行评审的大语言模型(LLM)只有DeepSeek-R1。
《自然》在社论中指出,同行评审有助于厘清LLM的工作原理,并评估其是否真正实现宣称的功能。
DeepSeek-R1推理模型研究论文
自1月份发布以来,R1已成为该平台解决复杂问题类模型中下载量最高的产品。如今,该模型经过八位专家评审,从原创性、方法学和鲁棒性等方面接受了评估。论文与评审报告及作者回应同步发布——在这个充斥着未经证实声明和过度宣传的行业,所有这些举措都是迈向透明化与可复现性的重要进步。
在DeepSeek的案例中,评审专家就对此提出质询。该公司不仅提供了减少数据污染的技术细节,还补充了模型发布后新推出基准的评估结果。同行评审还促使论文作出其他重要修改。
有人认为开放模型不如封闭模型安全,因为用户下载后开发者即失去控制,但开放模型也允许更广泛群体发现并修复缺陷。《自然》呼吁其他 AI 公司也应效仿 DeepSeek 的做法。
《自然》是国际最权威的科技期刊,配发的这篇社论远不止是一篇祝贺词,而是一次强有力的行业呼吁,旨在将AI模型的开发,尤其是那些声称取得突破性进展的模型,纳入科学研究的规范框架内。DeepSeek-R1是第一个接受同行评审的,而《自然》希望它是第一个而非最后一个。如果此举能形成趋势,将极大地促进AI行业的健康发展。扬子晚报/紫牛新闻记者 宋世锋
校对 胡妍璐