
财联社消息,今日,Deepseek宣布,其全新系列模型DeepSeek-V4的预览版本正式上线并同步开源。
DeepSeek-V4模型按大小分为Deepseek-V4-Pro(专家模式)和Deepseek-V4-Flash(快速模式)两个版本,均拥有百万字超长上下文,且同时支持非思考模式与思考模式。

据介绍,DeepSeek-V4-Pro的知识储备和推理能力优秀。其在世界知识测评中,大幅领先其他开源模型,仅稍逊于顶尖闭源模型Gemini-Pro-3.1;在数学、STEM、竞赛型代码的测评中,DeepSeek-V4-Pro超越当前所有已公开评测的开源模型,取得了比肩世界顶级闭源模型的优异成绩。
相比DeepSeek-V4-Pro,DeepSeek-V4-Flash在世界知识储备方面稍逊一筹,但展现出了接近的推理能力。而由于模型参数和激活更小,相较之下V4-Flash能够提供更加快捷、经济的API服务。
据官方介绍,DeepSeek-V4预览版具备两大亮点——
Agent能力大幅提高:相比前代模型,DeepSeek-V4-Pro的Agent能力显著增强。在Agentic Coding评测中,V4-Pro已达到当前开源模型最佳水平,并在其他Agent相关评测中同样表现优异。下图为V4-Pro在某Agent框架下生成的PPT内页示例:

目前DeepSeek-V4已成为公司内部员工使用的Agentic Coding模型,据评测反馈使用体验优于Sonnet 4.5,在代码任务、文档生成任务等方面表现均有提升,交付质量接近Opus 4.6非思考模式,但仍与Opus 4.6思考模式存在一定差距。

结构创新和超高上下文效率:
DeepSeek-V4开创了一种全新的注意力机制,在token维度进行压缩,结合DSA稀疏注意力(DeepSeek Sparse Attention),实现了全球领先的长上下文能力,并且相比于传统方法大幅降低了对计算和显存的需求。从现在开始,1M(一百万)上下文将是DeepSeek所有官方服务的标配。

DeepSeek-V4和DeepSeek-V3.2的计算量和显存容量随上下文长度的变化
目前,DeepSeek API已同步上线V4-Pro与V4-Flash,支持OpenAI Chat Completions接口与Anthropic接口。两版本价格如下:

原标题: DeepSeek-V4预览版上线 对计算和显存的需求降低 百万字上下文成标配
编辑:周芝逸 责编:吴光亮 审核:廖异
【免责声明】上游新闻客户端未标有“来源:上游新闻”或“上游新闻LOGO、水印的文字、图片、音频、视频”等稿件均为转载稿。如转载稿涉及版权等问题,请 联系上游 。






