Anonymous Intelligence Signal
职场AI监控升级:研发部署对话Agent与代码分析系统,员工行为被量化打分并标记“高风险”
一家公司的研发部门部署了AI对话Agent,该系统不仅定时拉取员工的代码,还对员工进行“综合评价”,并生成包含合作度、透明度、细节度等维度的量化评分。一份流出的评估记录显示,一名员工因在对话中使用“你在说什么”、“byebye”等语言,被AI判定为“沟通意愿极低”、“存在严重的风险掩盖倾向”,最终获得极低的合作分与细节分,整体风险等级被标记为“红色”。
这套系统将员工与AI的日常交互语言、代码提交行为等数据直接转化为绩效评估的一部分,形成了持续的自动化监控与评判。更值得注意的是,该公司此前已存在但沉寂的“上网行为管理”系统也被重新激活,并与AI分析相结合,用于监控和分析员工的“上班情况”。这标志着传统的网络行为监控正与新型的AI对话分析、代码审查工具融合,构建出更全面、更深入的员工行为监测体系。
此举将职场监控从物理行为和网络流量层面,深入到了日常沟通语义与工作产出质量的实时分析领域。它引发了关于AI管理工具伦理边界的尖锐问题:当“提效”的代价是员工每一句对话、每一行代码都处于被算法评判和风险定性的压力之下,这是否意味着管理正从目标导向滑向对“人”的全面行为规训?这种基于AI的持续评估体系,可能对研发人员的心理安全、创新自由以及团队信任文化构成深层挑战。