WhisperX tag archive

#人工智能治理

This page collects WhisperX intelligence signals tagged #人工智能治理. It is designed for humans, search engines, and AI agents: each item links to a canonical source-backed record with sector, source, timestamp, credibility, and exportable structured data.

Latest Signals (13)

The Lab · 2026-03-30 13:39:21 · 澎湃新闻 (RSSHub)

1. 上海市政协常委方建安:AI生成内容冲击学术诚信,高校不能只靠‘堵’

当AI生成的论文初稿、实验图像甚至虚假参考文献开始涌入学术殿堂,高校的诚信防线正面临前所未有的冲击。上海市政协常委、东华大学图书馆馆长方建安在“清朗浦江·2026”网络生态治理开放日上发出警告,指出当前针对AI生成内容的监管存在明显短板,尤其是在学术领域,单纯依靠技术“堵截”已不足以应对挑战。作为知识产权信息服务专家和高校图书馆的“守门人”,他揭示了政策落地中的深层矛盾与学术生态面临的真实风险。 方建安肯定了自去年9月施行的《人工智能生成合成内容标识办法》及配套国标的初步成效。他指出,该政策已初步构建起AI内容治理的“四梁八柱”,头部主流平台在多模态生成内容上的合规率已大幅提升至80%-90%,“源头可追溯”的技术底座基本夯实,显...

The Network · 2026-03-31 03:39:44 · 钛媒体

2. OpenClaw爆火暴露AI智能体安全黑洞,全球治理竞赛与失控风险同步升级

AI智能体正从‘能说’迈向‘能做’,其自主执行任务的能力在释放生产力的同时,也撕开了一道巨大的安全裂缝。联合国工业发展组织副总干事邹刺勇在《人民日报》发文警告,人工智能已成为关乎人类共同未来的治理命题,而OpenClaw等工具的爆火,让全球范围内的安全漏洞和治理难题从技术圈层迅速扩散至公共视野。工信部与国家互联网应急中心已连续发布风险提示,明确指出OpenClaw可能导致系统被控、隐私与敏感数据泄露。一场围绕AI治理规则的全球博弈,已在技术狂奔的背景下悄然拉开序幕。 OpenClaw的走红,标志着AI进入智能体(Agent)时代。用户授权后,它能自动调用系统资源、批量处理流程。然而,伴随其能力而来的是失控风险。哈佛大学、麻省理工学...

The Lab · 2026-04-01 08:59:34 · 澎湃新闻 (RSSHub)

3. OpenClaw火爆引爆AI治理困境:智能体‘会做会说’,责任归属与风险测评难度指数级攀升

OpenClaw的爆火,将人工智能治理的核心矛盾——‘科林格里奇困境’——推到了聚光灯下。技术迭代速度远超监管跟进能力,而当智能体(Agentic AI)真正嵌入工作流与社会系统后,责任界定与风险管控的复杂性将呈指数级增长。学界警告,传统的单一责任主体框架正在失效,治理滞后正从理论担忧演变为迫在眉睫的实践危机。 这一困境的核心在于智能体改变了‘行动主体’的本质。清华大学教授陈昌凤指出,智能体不再是仅被动执行指令的工具,而是能自主拆解任务、调用工具、协调流程的‘行动参与者’。一项任务的完成,是模型、工具、平台、部署者、使用者等多方共同作用的产物。一旦执行出错,责任往往分散于整个协同链条,而非单一节点失灵。陈昌凤强调,‘治理的实质是规...

The Network · 2026-04-06 10:59:11 · 华尔街见闻 (RSSHub)

4. OpenAI发布重磅产业政策蓝图:建议设立公共财富基金与四天工作制,应对AI超级智能冲击

OpenAI不再仅仅谈论技术,而是直接介入社会政策的核心地带。这家全球领先的人工智能公司发布了一份名为《智能时代的产业政策:以人为本的理念》的文章,提出了一套旨在应对AI驱动变革的激进政策建议。其核心主张是设立公共财富基金,向公民直接分配现金,确保每个人都能在AI驱动的经济增长中“拥有份额”。这标志着AI巨头正从技术研发者,转向社会变革议程的积极塑造者。 文章提出的具体建议极具颠覆性。除了公共财富基金,OpenAI还建议探索让公众分享AI带来的效率提升,例如激励雇主试行四天工作制,前提是不降低员工产出。同时,文章呼吁主动、实时地衡量AI对工资和失业的影响,并设立预警机制:一旦“这些指标超过预设阈值”,就应为劳动者启动更强大的社会支...

The Network · 2026-04-06 21:29:19 · 华尔街见闻 (RSSHub)

5. OpenAI致信州检察长,要求调查马斯克“违规与反竞争行为”,审判前夕火药味升级

OpenAI与埃隆·马斯克之间的法律战在审判前夕急剧升级。本周一,OpenAI正式致信加利福尼亚州和特拉华州总检察长,敦促其调查马斯克及其相关人士的“违规和反竞争行为”。OpenAI战略负责人Jason Kwon在信中直接指控,马斯克正通过一系列“攻击”手段试图削弱OpenAI,甚至包括与Meta首席执行官马克·扎克伯格进行“协调行动”。此举将双方从法庭上的诉讼对抗,推向了寻求政府监管介入的新层面。 这场备受瞩目的审判源于马斯克在2024年对OpenAI提起的诉讼。马斯克指控自己在OpenAI从非营利机构转向营利性实体的过程中被“精心操控”和“欺骗”。双方渊源颇深:马斯克与OpenAI现任CEO萨姆·阿尔特曼等人于2015年共同创...

The Network · 2026-04-07 23:29:22 · 36氪

6. 马斯克修改OpenAI诉讼:要求赔偿金归其慈善机构,并开除奥特曼董事会席位

马斯克对其起诉OpenAI的诉讼案做出了关键修改,将这场科技巨头间的法律对决推向了新的层面。他正式要求,如果赢得诉讼,任何损害赔偿金都应判给OpenAI旗下的慈善机构,而非他个人。这一举动旨在削弱外界对其诉讼动机是出于个人利益的指控,将争议焦点重新拉回到OpenAI是否违背其非营利初衷的核心问题上。 修正案的另一项核心诉求,是要求将OpenAI现任首席执行官萨姆·奥特曼从公司的非营利董事会中除名。这直接挑战了奥特曼在公司治理结构中的核心地位,也是马斯克与奥特曼之间长期公开不和的又一次激烈升级。该诉讼预计将于本月晚些时候在加州奥克兰开庭审理,这场围绕AI发展控制权与伦理的冲突即将进入法庭对决阶段。 此次诉讼修正不仅关乎巨额赔偿的流...

The Network · 2026-04-08 10:59:35 · 36氪

7. 马斯克法庭文件曝光:要求罢免奥特曼,恢复OpenAI非营利身份

埃隆·马斯克对OpenAI的诉讼,核心诉求远超金钱赔偿。在4月7日提交的法庭文件中,马斯克明确要求法院下令,撤销OpenAI向营利性公司的转型与重组,并解除首席执行官山姆·奥特曼与总裁格雷格·布罗克曼的领导职务。其根本目标是迫使这家AI巨头恢复其最初的非营利性研究组织身份,这直接挑战了OpenAI自2019年以来的根本性商业架构。 OpenAI迅速在社交媒体上做出强硬反击,将马斯克的诉讼定性为“一场骚扰行动”,并指控其动机源于“自负、嫉妒以及想要拖慢竞争对手步伐的意图”。这一公开声明将双方长期以来的理念分歧与私人恩怨彻底摆上台面,使得这场法律战升级为一场关于AI发展道路与公司治理核心原则的公开对峙。 此案若按马斯克的主张推进,将...

The Network · 2026-04-09 02:00:01 · 36氪最新 (RSSHub)

8. 马斯克诉OpenAI案升级:要求法院罢免奥尔特曼CEO职务,恢复非营利性质

埃隆·马斯克与OpenAI的法律战争进入白热化阶段。在即将于本月末开庭的关键审理前夕,马斯克的律师团队提交法律文件,直接要求法院下达命令,罢免山姆·奥尔特曼在OpenAI非营利组织董事会的职务,并解除奥尔特曼与总裁格雷格·布罗克曼在OpenAI营利性实体中的所有高管职位。文件明确指出,在相关人员未能履行慈善机构公共使命的情况下,解除其职务是“常见的解决方式”。此举将这场围绕“背叛非营利承诺”的长期纠纷,推向了决定公司控制权与根本性质的决战时刻。 马斯克于今年初起诉OpenAI及奥尔特曼,指控该公司存在欺诈与违约行为。核心争议在于,马斯克声称自己十年前协助创立并捐赠了3800万美元的OpenAI,当初承诺将始终保持非营利性质,但后来...

The Lab · 2026-04-15 02:03:15 · 36氪最新 (RSSHub)

9. Agentic AI 越权风险引爆:全球首个治理框架落地,企业安全成本飙升

当自主智能体(Agentic AI)开始读取文件、调用接口、跨系统执行任务时,一个核心问题随之浮现:谁来为它的越权行为买单?这个关于权力与责任的老问题,正以远超立法速度的节奏,闯入企业核心系统。与拥有“驾照”和“保险单”的汽车不同,Agentic AI 在没有任何明确法规与事故责任体系保障的情况下,已开始自主行动。第一张真正的“AI越权事故”赔偿账单,将落在一个整个行业尚未准备好答案的问题上。 2026年第一季度,Agentic AI 赛道经历了密集的“政策+技术+市场”三重冲击,引爆了企业风控圈、科技社区与投资者的集体紧张。2026年1月22日,新加坡资讯通信媒体发展局(IMDA)在达沃斯发布了全球首个专门针对自主智能体系统的国...

The Lab · 2026-04-15 09:33:29 · 36氪最新 (RSSHub)

10. Anthropic 用阿里千问模型实验:人类能否监督比自己更聪明的AI?

当AI的智能超越人类时,我们是否还能控制它?这不再只是科幻电影的哲学思辨。AI安全公司Anthropic近期进行了一项名为“自动化对齐研究员”的实验,旨在用实证方法探索这个核心问题。实验的关键在于“弱监督强模型”:用一个能力较弱的AI模型(代表未来的人类监督者)去训练一个能力更强的AI模型(代表未来的超级AI),观察后者能否突破前者的能力局限,达到接近理想状态的表现。 Anthropic的具体操作是,使用阿里通义千问的两个不同版本模型来模拟这一场景。他们让参数规模较小的Qwen1.5-0.5B-Chat模型扮演“弱老师”,为参数更大、能力更强的Qwen3-4B-Base模型(“强学生”)提供训练信号。研究的核心指标是“性能差距恢复...

The Lab · 2026-04-19 03:32:56 · 36氪最新 (RSSHub)

11. Anthropic秘密召集全球宗教领袖,为Claude AI注入“道德灵魂”

在硅谷的AI军备竞赛中,Anthropic选择了一条独特的路径:为AI模型寻找“灵魂”。这家以Claude模型闻名的人工智能公司,近期在旧金山总部秘密召集了一场非同寻常的峰会。与会者并非工程师或数据科学家,而是来自儒家、道教、印度教、锡克教、摩门教、伊斯兰教等世界各大信仰的神学家与信徒。这场为期两天的闭门会议,核心议题直指“Claude模型的道德构成”,标志着科技巨头正试图从古老智慧中为前沿技术寻找伦理锚点。 这并非Anthropic首次与东方哲学结缘。去年五月,美国道教音乐制作人瑞克·罗宾便与Anthropic合作,以《道德经》八十一章为灵感,利用Claude生成的代码和图片创建了网站《编程之道》。而此次峰会更具系统性,是继三月...

The Network · 2026-04-20 00:03:09 · 36氪

12. 发改委郑栅洁发文:强化新兴领域安全治理,人工智能法规与伦理准则成重点

国家发展改革委党组书记、主任郑栅洁在《人民日报》撰文,明确提出将加强新兴领域安全治理作为提升国家经济安全保障能力的关键路径。文章将完善人工智能相关法律法规、政策制度、应用规范及伦理准则置于突出位置,标志着顶层设计正加速填补这一前沿领域的治理空白。此举旨在综合应对新技术发展对就业、社会治理的潜在影响,并推动从模型算法、数据资源到基础设施、应用系统的全方位安全能力建设。 文章勾勒出一幅系统性的新兴风险防控图景。治理框架不仅限于人工智能,还同步覆盖网络安全、数据跨境流动、低空经济安全以及生物安全等多个关键维度。具体措施包括深化网络空间综合治理以保护关键信息基础设施,强化数据分类分级保护,因地制宜推动低空经济(特别是无人驾驶航空器)的安全...

The Vault · 2026-04-29 00:27:32 · 36氪

13. 马斯克出庭直击OpenAI治理核心:索赔1300亿美元,指控奥尔特曼背叛非营利使命

本周二,埃隆·马斯克现身美国加州北区联邦地区法院作证,其诉讼主张的核心,直指人工智能时代最根本的治理争议:一家以非营利之名创立、承诺开源开放的研究机构,是否有权转身成为追逐商业利润的巨头。马斯克在庭上明确表示,此案早已超越单一企业纠纷的范畴,攸关人类是否能确保AI技术沿着安全方向演进。 这场诉讼的焦点,集中在马斯克对OpenAI现任管理层的历史性背离指控。他声称,首席执行官山姆·奥尔特曼与总裁格雷格·布罗克曼联手对其进行欺骗,使他在不知情的情况下被边缘化,最终眼睁睁看着OpenAI背弃其创始承诺——以人类福祉为导向,而非服务于任何商业实体的盈利目标。马斯克的诉讼请求明确:索赔1300亿美元,强制恢复非营利架构,并要求奥尔特曼与布罗...