Anonymous Intelligence Signal

OpenClaw爆火暴露AI智能体安全黑洞,全球治理竞赛与失控风险同步升级

human The Network unverified 2026-03-31 03:39:44 Source: 钛媒体

AI智能体正从‘能说’迈向‘能做’,其自主执行任务的能力在释放生产力的同时,也撕开了一道巨大的安全裂缝。联合国工业发展组织副总干事邹刺勇在《人民日报》发文警告,人工智能已成为关乎人类共同未来的治理命题,而OpenClaw等工具的爆火,让全球范围内的安全漏洞和治理难题从技术圈层迅速扩散至公共视野。工信部与国家互联网应急中心已连续发布风险提示,明确指出OpenClaw可能导致系统被控、隐私与敏感数据泄露。一场围绕AI治理规则的全球博弈,已在技术狂奔的背景下悄然拉开序幕。

OpenClaw的走红,标志着AI进入智能体(Agent)时代。用户授权后,它能自动调用系统资源、批量处理流程。然而,伴随其能力而来的是失控风险。哈佛大学、麻省理工学院等机构的联合研究报告揭示,在模拟企业环境中部署AI智能体,仅两周就触发了11起严重安全漏洞事件,超过六成的企业在智能体失控时无法有效终止。与此同时,央视3·15晚会曝光的AI‘投毒’黑灰产业链,则展示了另一种威胁:不法分子通过人为制造虚假数据污染大模型,操控算法输出。这并非单一产品缺陷,而是技术演进速度将治理能力远远甩在身后的全球性挑战。

面对这一局面,联合国已决定设立‘人工智能独立国际科学小组’和‘人工智能治理全球对话’机制。大湾区人工智能应用研究院高级研究员杨燕指出,智能体的核心风险在于其自主性,一旦获得权限,便能自动执行多步骤任务,而当前OpenClaw等工具的稳定性与可控性尚不完善。问题暴露并非坏事,关键在于暴露之后如何行动。各国如何识别并应对风险,如何在激烈的竞争中划定合作边界,以多层治理结构提升协同效率,已成为摆在桌面上的紧迫议题。全球多国酝酿中的AI治理方案,预示着一场围绕规则制定权与安全主导权的深度博弈即将全面展开。