Anonymous Intelligence Signal

OpenClaw火爆引爆AI治理困境:智能体‘会做会说’,责任归属与风险测评难度指数级攀升

human The Lab unverified 2026-04-01 08:59:34 Source: 澎湃新闻 (RSSHub)

OpenClaw的爆火,将人工智能治理的核心矛盾——‘科林格里奇困境’——推到了聚光灯下。技术迭代速度远超监管跟进能力,而当智能体(Agentic AI)真正嵌入工作流与社会系统后,责任界定与风险管控的复杂性将呈指数级增长。学界警告,传统的单一责任主体框架正在失效,治理滞后正从理论担忧演变为迫在眉睫的实践危机。

这一困境的核心在于智能体改变了‘行动主体’的本质。清华大学教授陈昌凤指出,智能体不再是仅被动执行指令的工具,而是能自主拆解任务、调用工具、协调流程的‘行动参与者’。一项任务的完成,是模型、工具、平台、部署者、使用者等多方共同作用的产物。一旦执行出错,责任往往分散于整个协同链条,而非单一节点失灵。陈昌凤强调,‘治理的实质是规范设定权’,但权力与责任归属的模糊变化,使得现有治理框架显得捉襟见肘。

更严峻的挑战在于风险测评。上海计算机软件技术开发中心的专家陈敏刚表示,智能体的测评难度比传统大模型‘不止一个量级’,甚至可能是指数级提升。原因在于,智能体不仅能‘说’(生成内容),更会‘做’(执行任务)。在实际运行中,它可能调用多种工具,出现多智能体协作、分身执行等复杂情形。测评因此不再只是评估‘答得对不对’,还必须同时监控‘做得安不安全、准不准’。这直接加剧了幻觉、安全攻击、数据泄露及大模型滥用等已知风险的管控难度,使得治理落地面临前所未有的直接挑战。