今日,深度求索(DeepSeek)正式宣布全新系列大模型 DeepSeek-V4 预览版 上线并同步开源。该系列突破性地支持 100万字(1M)超长上下文,在智能体(Agent)协同能力、世界知识储备及复杂逻辑推理性能上,均实现国内与开源领域的全面领先。即日起,用户可通过官网 chat.deepseek.com 或官方 App 体验,开发者亦可通过更新 API 参数无缝接入。

双版本矩阵:Pro 旗舰对标顶尖,Flash 主打高效经济
![]()
![]()
为满足多元应用场景,DeepSeek-V4 划分为 Pro 与 Flash 两大版本:
DeepSeek-V4-Pro(高性能旗舰):Agent 能力实现跨越式升级。在 Agentic Coding 评测中登顶开源模型榜首,内部实际交付质量已接近顶尖闭源模型 Opus 4.6(非思考模式),综合体验优于 Sonnet 4.5,与 Opus 4.6 思考模式仍存在一定差距。在世界知识测评中大幅领先开源阵营,仅稍逊于 Gemini-Pro-3.1;在数学、STEM 及竞赛型代码评测中超越所有已公开开源模型,推理性能比肩全球顶级闭源产品。
DeepSeek-V4-Flash(高效经济版):参数量与激活规模更精简,在保持与 Pro 版相近推理能力的同时,世界知识储备略有缩减。凭借更低的算力需求,V4-Flash 提供更快捷、低成本的 API 服务。在简单 Agent 任务中与 Pro 版旗鼓相当,高难度复杂任务仍有优化空间。
![]()
架构突破:首创 Token 压缩+DSA 稀疏注意力,1M 上下文成标配
DeepSeek-V4 在底层架构上实现重大创新。模型采用全新的 Token 维度注意力压缩机制,结合 DSA 稀疏注意力(DeepSeek Sparse Attention),成功破解长上下文场景下的算力与显存瓶颈。相比传统方法,该架构在维持百万级上下文吞吐的同时大幅降低计算开销。官方明确宣布:自即日起,1M 超长上下文将成为 DeepSeek 所有官方服务的标准配置。
生态适配与 API 升级:全面拥抱 Agent 开发流
针对主流 AI Agent 生态,V4 系列已完成对 Claude Code、OpenClaw、OpenCode、CodeBuddy 等框架的深度适配,在自动化代码生成、结构化文档输出(如 PPT/报告生成)等任务中表现显著提升。
行业资讯、企业动态、峰会活动可发送邮件至news#citmt.cn(把#换成@)。
海报生成中...