当“人工智能+”步入第三个年头,智能体(AI Agent)正试图撕掉“聊天机器人”的旧标签,换上“数字员工”的新工牌。
2026年全国两会期间,这一话题热度骤升。从辅助决策的参谋,进化为能干活、能跑腿、能下单的执行者,智能体站在了从“能用”到大规模“好用”的悬崖边上。但向前一步,是星辰大海还是责任真空?
商业价值与落地成本的“温差”仍在拉大。 麦肯锡2025年调研显示,尽管88%的中大型企业已在尝试AI,但仅三分之一实现了规模化部署。而在企业级AI落地中,约70%的方案需要高度定制化,仅有30%可被标准化复制。更严峻的是,当智能体开始自主执行任务,推理算力的消耗正成为新的成本“吞金兽”。360集团创始人周鸿祎算了一笔账:智能体执行一次复杂任务消耗的token量,可达简单对话的数百甚至上千倍。当算力重心从“训练”转向“推理”,降低单次决策成本,成了“数字员工”能否上岗的关键生死线。
产业协同:生态主导权之争白热化。 智能体若想成为超级入口,必须打破移动互联网时代的App孤岛。谷歌正通过“通用商务协议”试图重构代理式电商生态,预计覆盖数亿用户。但光有协议不够,更需要“即插即用”的底层标准。2月17日,美国国家标准与技术研究院悄然启动AI Agent标准倡议,聚焦身份、授权与互操作性。而国内,华为等企业正力推“制造智能体”,试图通过平台化融合打通工业场景——某车企借助该平台,订单交付周期从14天锐减至7天。生态之争,已从单点技术转向了规则制定权的博弈。
安全治理:最棘手的“责任真空”浮现。 一旦智能体跨应用下单、调用API或泄露数据,责任该由谁承担?“这并非技术缺陷,而是结构性失效。” 一篇发表于arXiv的论文直指核心:当决策生成量超过人类审核能力,形式化审批将取代实质性判断,形成“责任真空”。现实的隐忧已在司法端显现:2025年9月,上海徐汇区法院一审判决某AI伴侣应用开发者构成制作淫秽物品牟利罪。审理中,算法自动生成内容的责任归属引发巨大争议,传统“行为人—行为结果”的认定方式正面临瓦解。奇安信董事长齐向东对此表示,必须将安全能力嵌入AI全生命周期,以AI对抗AI。
人才培养:从“调参侠”到“智能体指挥官”。 复杂系统的涌现,倒逼人才能力重构。全国政协委员、北京通用人工智能研究院院长朱松纯指出,赢得AI竞争的关键在于深入理解“何以为人”,探索符合中国国情的人才路径。开发者社区已敏锐转向,2026年的技术蓝图显示,AI Agent开发者正从“模型调优”向“系统工程”全面转型,不仅要懂思维链,更要会设计多智能体协作流与安全沙箱。未来职场,每个人都需要学会管理一支“数字部队”。
智能体的奇点临近,但技术狂奔的同时,规则与责任不能缺席。当机器学会干活,人类更要学会划定边界。