4月24日,DeepSeek-V4模型正式发布并开源,华为云首发适配。
据介绍,DeepSeek-V4拥有百万Token超长上下文,在Agent能力、世界知识和推理性能上均实现国内与开源领域的领先。其中,DeepSeek-V4-Flash模型参数下降至284B,推理成本进一步降低,模型参数和激活更小,V4-Flash能够提供更加快捷、经济的API服务,实现百万上下文普惠。
记者了解到,当前,华为云MaaS模型即服务平台已为开发者提供免部署、一键调用DeepSeek-V4-Flash API的Tokens服务。在此次新模型适配过程中,华为云在系统层、算子层和集群层的关键能力上协同,分别从调度效率、计算效率和数据流转效率三个维度保障新模型快速适配与高性能落地。
针对DeepSeek-V4,华为云首发适配模型分层注意力压缩机制,支持原生1M长上下文的高性能推理。华为云开放接纳自研和第三方主流大模型和众多智能体。据悉,金山办公、360等企业已通过华为云接入DeepSeek新模型,此外,DeepSeek-V4-Pro版本也将于近日上线。