DeepSeek-V4预览版亮相!百万字上下文成标配 算力、显存需求大降

DeepSeek 全新系列模型 DeepSeek-V4 的预览版本,周五 (24 日) 正式上线并同步向全球开源。此次发布象徵着开源模型在推理能力,以及长文本处理领域迈向了新的里程碑。

DeepSeek-V4 系列根据应用场景分为专家模式DeepSeek-V4-Pro 与快速模式DeepSeek-V4-Flash 两个版本,全系列皆标配高达 100 万字的超长上下文处理能力,并提供思考与非思考模式供用户弹性切换。


在性能评测方面,旗舰级的 DeepSeek-V4-Pro 展现了惊人的知识储备与逻辑推理实力。根据官方数据,其在世界知识评测中不仅大幅领先所有同类开源模型,表现更直逼顶尖闭源模型 Gemini-Pro-3.1。

在数学、STEM 领域及竞赛型代码测评中,V4-Pro 的成绩更是傲视目前已公开的所有开源模型,取得了比肩全球顶级闭源模型的卓越成就。

针对高频率、高效率需求设计的 DeepSeek-V4-Flash,虽然在世界知识储备上略逊于 Pro 版本,但其推理能力依然保持在相近的高水準。

得益于更小的模型参数与更精简的启动机制,V4-Flash 能够提供更迅速、更具经济效益的 API 服务,为开发者与企业应用提供了极具吸引力的选择。

本次更新最受瞩目的亮点之一在于 Agent 能力的飞跃式提升。DeepSeek-V4-Pro 在 Agentic Coding(代理编码)评测中已达到开源界最佳水平,其在自动化生成简报(PPT)内页等任务中表现优异。

据悉,DeepSeek 公司内部已将 V4 作为核心的开发辅助模型。内部员工反馈指出,V4 在程式码任务与文件生成方面的品质优于市场主流的 Sonnet 4.5,其交付品质已接近 Opus 4.6 的非思考模式,展现了强大的工程实践价值。

技术层面上,DeepSeek-V4 实现了结构性的创新突破。该模型开创了一种全新的注意力机制,通过在 Token 维度进行有效压缩,并结合独家的 DSA(DeepSeek Sparse Attention)稀疏注意力技术,实现了领先全球的长上下文处理能力。

这项技术不仅大幅降低了计算资源与显存需求,更让 1M(百万)级别的上下文处理正式成为 DeepSeek 官方服务的标準配备。

DeepSeek-V4 的开源不仅是技术上的输出,更展现了该团队致力于推动 AI 基础设施普及化的决心。

发布于 2026-04-24 16:56
收藏
1
上一篇:〈台币〉外资涌入助攻台积电拉多头马车 放量升值5.9分 下一篇:没有了