北京大学与DeepSeek共同完成新论文:打造全新条件记忆架构

PChome | 编辑: 冯可心 2026-01-13 10:40:38

2026年1月13日消息,据新浪科技报道,DeepSeek于12日晚发布新论文《Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models》(基于可扩展查找的条件记忆:大型语言模型稀疏性的新维度)。

2026年1月13日消息,据新浪科技报道,DeepSeek于12日晚发布新论文《Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models》(基于可扩展查找的条件记忆:大型语言模型稀疏性的新维度)。

据了解,该论文为北京大学与DeepSeek共同完成,合著作者署名中出现梁文锋,创始人梁文锋再次作为署名作者出现在论文中,提出名为Engram(记忆痕迹)的全新条件记忆架构,Engram通过引入可扩展的查找式记忆结构,将传统大模型中“死记硬背类知识”与“复杂逻辑推理”功能解耦。

同时,论文提到结论经“内部大规模训练实验”证实,且Engram架构设计直指千亿级模型优化需求,多位行业观察者指出,Engram是DeepSeek-V4的预发布技术,可能于近期落地。

说明:所有图文均来自网络,版权归原作者所有,如果侵犯您的权益,请联系我们删除。

每日精选

首页 手机 数码相机 笔记本 游戏 DIY硬件 硬件外设 办公中心 数字家电 平板电脑