DeepSeek-V3-0324 重磅发布:推理能力大幅提升,MIT开源
2025年3月24日,中国AI公司DeepSeek正式发布其最新的混合专家(MoE)语言模型DeepSeek-V3-0324。该模型总参数达6710亿,每次激活370亿参数,在多个关键基准测试中实现了显著的性能提升。
本次更新的核心亮点在于推理能力的飞跃。在AIME数学推理测试中,得分从39.6提升至59.4(+19.8);在GPQA科学问答中,从59.1提升至68.4(+9.3);在LiveCodeBench代码测试中,从39.2提升至49.2(+10.0)。此外,模型在前端Web开发能力、中文写作和搜索能力方面均有显著优化。
- 推理性能突破:AIME测试提升19.8分,GPQA提升9.3分
- 前端开发增强:生成的网页和游戏前端更具美观性
- 中文能力优化:适合中长篇写作和报告分析
- 完全开源:采用MIT许可证,托管在Hugging Face
- 性价比优势:低成本高性能,挑战西方模型定价策略