4月26日,一则消息在全球开发者的更新日志里炸开了锅——OpenClaw这把全球最火的开源AI Agent交椅,正式把DeepSeek-V4请上了默认模型的“C位”。
从这一刻起,每一个拉取最新版本OpenClaw的开发者,打开与自己“AI员工”的对话窗口,背后的思考大脑都将来自DeepSeek。
这不止是一次API调用的替换,更标志着中国开源大模型已实质性登上全球Agent开发的主舞台。OpenClaw并未单纯把本土前沿模型当作一个备选插件,而是直接将DeepSeek-V4 Flash扶正,作为系统默认的“推理大脑”。与此同时,旗舰版DeepSeek-V4 Pro也已全面入驻其模型库,供高阶用户按需调用。
从更宏观的时间线上看,这一切发生在DeepSeek-V4预览版正式上线的48小时后。4月24日,首个总参数量达到1.6万亿的开源大模型宣告问世,采用MoE架构,激活参数为49B,同步开源的V4-Flash则以284B总参数、13B激活参数提供平衡的性价比之选。
这次破纪录的参数规模和开源协议,并非单纯为了炫技。DeepSeek-V4在Agent能力上进行了系统性增强——自主决策更准,工具调用链条更稳,百万Token超长上下文已成为标配。在Agentic Coding评测中,V4-Pro已达到开源模型最佳水平,使用体验优于Sonnet 4.5,交付质量接近Opus 4.6非思考模式。
然而,顶级智能体的进化瓶颈往往不只在于软件算法。OpenClaw的更新日志同时释放了一个强烈信号:国产AI算力正在极速追赶。华为昇腾超节点已全面支持DeepSeek-V4系列模型,寒武纪也在第一时间完成了V4-Flash和V4-Pro两个版本的Day 0适配。多家国产AI芯片均已完成兼容性验证,在通用推理场景相比传统方案实现了最高1.96倍的加速效果。
与此同时,DeepSeek正在用极致的价格策略为Agent的大规模落地铺平道路。在最新一轮调价后,V4-Pro输入缓存命中价降至万元左右,实际约0.025元/百万Tokens,创下全球大模型价格新低。DeepSeek并不仅仅在输出低成本的API服务,更在试图降低整条AI智能体研发链条的上手门槛。
顺着这条沉甸甸的更新日志下翻,还能进一步看到OpenClaw团队的工程雄心。本版更新打通了实时语音通话,Google Meet深度集成,浏览器自动化进化出坐标点击功能,在Telegram、Slack、MCP协议上的专项修复让系统稳定性上了台阶。
一系列功能“武装”,并非简单延伸应用范围,而是为无所不能的AI Agent落地实际生产环境扫清最后障碍。这次强强联手,既有顶尖算法在最上层“当大脑”,又有国产软硬一体生态实现中台加速对国产GPU的深入适配——中国AI在Agent赛道的话语权,正迎来一次决定性提升。