deepseek的下一代模型v4 可能在春节前后出来

去年12月1日,DeepSeek一口气推出了两个正式版模型,分别是DeepSeek-V3.2和DeepSeek-V3.2-Speciale。现在大家用的网页端、App和API,其实都已经切换成了正式版的DeepSeek-V3.2,Speciale版本目前只保留了临时的API服务,供社区做评测和研究。这个V3.2主要是为了平衡推理能力和输出长度,特别适合日常问答或者通用Agent的任务。在推理类的Benchmark测试里,它达到了GPT-5的水准,稍微比Gemini-3.0-Pro差一点。和Kimi-K2-Thinking相比,V3.2的输出长度大幅缩水,这样一来计算开销少了,用户等结果的时间也短了。 接着到了1月12日,DeepSeek又放出了一篇论文《Conditional Memory via Scalable Lookup:A New Axis of Sparsity for Large Language Models》,也就是那个基于可扩展查找的条件记忆,它被认为是大语言模型稀疏性的一个新方向。梁文锋也在作者名单里。这篇论文的核心就是指出了现在大模型记忆力差的毛病,然后提出了“条件记忆”的概念。当时大家就都在猜,DeepSeek的下一代模型V4可能就在今年春节前后出来。 再看最近,2月13日,澎湃新闻的记者发现,DeepSeek的网页版和APP正在测试一种新的长文本模型结构,这回能支持100万字符的上下文。不过它的API服务暂时没变,还是用V3.2版本,只能支持12万8千字符的上下文。这一招让外面的人都觉得,DeepSeek可能又要在今年春节搞个大动作,把去年春节那种轰动效应再复刻一遍。