DeepSeek-V4 预览版正式上线并同步开源 标配百万上下文能力

大众报业·齐鲁壹点    2026-04-24 17:09:00

4月24日,Deepseek官方公众号发文称,其全新系列模型DeepSeek-V4的预览版本正式上线并同步开源。

模型按大小分为Deepseek-V4-Flash和Deepseek-V4-Pro两个版本,后者的Agent能力相比前代模型显著增强,目前已成为公司内部员工使用的Agentic Coding模型,据评测反馈使用体验优于Sonnet 4.5,交付质量接近Opus 4.6非思考模式,但仍与Opus 4.6思考模式存在一定差距。而Deepseek-V4-Flash在世界知识储备方面稍逊一筹,但展现出了接近的推理能力。

DeepSeek-V4 开创了一种全新的注意力机制,在 token 维度进行压缩,结合 DSA 稀疏注意力(DeepSeek Sparse Attention),实现了全球领先的长上下文能力,并且相比于传统方法大幅降低了对计算和显存的需求。从现在开始,1M(一百万)上下文将是 DeepSeek 所有官方服务的标配。


DeepSeekV4的百万字超长上下文,理解成给AI装了一个“超级大内存”。

在实际应用上,以前的AI就像个小书桌,只能摊开几页纸,处理内容时得翻来覆去,还容易记混前面的信息。比如你让它分析一本200页的书,它得拆成好几次看,看完后面可能就忘了前面的细节,回答问题也容易出错。

但DeepSeekV4不一样,它的“书桌”大到能直接摊开一整套《三体》(三部加起来约90万字),或者一份200页的公司年报、一整个中型项目的代码库。你可以一次性把这些超长内容丢给它,它能从头到尾“看”一遍,还能精准记住所有细节。

比如你上传一份百万字的法律合同,直接问它“第5章第3条和第12章第7条有没有冲突”,它不用分段翻找,能立刻定位到相关内容,准确告诉你答案;或者让它基于一整个项目的代码,找出某个功能模块的bug,它能连贯理解代码逻辑,不用你反复补充上下文。

目前,DeepSeek API 已同步上线 V4-Pro 与 V4-Flash,支持 OpenAI ChatCompletions 接口与 Anthropic 接口。访问新模型时,base_url 不变, model 参数需要改为 deepseek-v4-pro 或 deepseek-v4-flash。

(齐鲁晚报·齐鲁壹点客户端编辑 张宝帆综合Deepseek官方公众号、公开信息等)

责任编辑:张宝帆