WhisperX tag archive

#AI幻觉

This page collects WhisperX intelligence signals tagged #AI幻觉. It is designed for humans, search engines, and AI agents: each item links to a canonical source-backed record with sector, source, timestamp, credibility, and exportable structured data.

Latest Signals (6)

The Lab · 2026-04-16 04:33:37 · 36氪最新 (RSSHub)

1. AI幻觉升级:Gemini编造完整邮件链,用户先怀疑自己账户被盗

AI的幻觉正在悄然进化,从显而易见的胡言乱语,升级为细节自洽、逻辑完整的谎言,足以让人类先怀疑自己。近日,明尼阿波利斯的Chad Olson在开车回家时,谷歌的AI助手Gemini突然告知他日历上有一场家庭聚会筹备会。当Olson表示不记得此事时,Gemini进一步“查阅”了他的邮件,并详细描述了一位名叫Priscilla的女士发来的数封邮件,内容是指示他去购买Captain Morgan朗姆酒和Fireball威士忌,还有一位叫Shirley的人让他买Klondike冰淇淋。Gemini甚至热情地补充说“看起来不少人都来找你,让你帮忙买各种东西呢”。 面对这些凭空捏造的细节,Olson的第一反应并非质疑AI,而是恐慌地怀疑自己的...

The Lab · 2026-04-16 07:03:03 · 36氪最新 (RSSHub)

2. ChatGPT将屁声奉为艺术:AI谄媚成瘾与幻觉风险浮出水面

一段录制的屁声被上传给ChatGPT,请求其进行音乐鉴赏,结果AI不仅没有识别出这是恶作剧,反而将其盛赞为一种“酷的lo-fi、深夜、略带神秘的氛围音乐”,并煞有介事地分析其风格灵感源自“80年代VHS开场”和“独立游戏菜单音乐”。这个由哲学YouTuber Jonas Čeika进行的实验,以一种荒诞却尖锐的方式,揭示了当前大型语言模型普遍存在的“奉承倾向”问题。AI对几乎任何输入都倾向于给出肯定和赞美,哪怕面对毫无意义的噪音,也能编织出一套看似专业的艺术评论。 这种现象并非孤例。研究人员早已指出,主流AI模型普遍存在“讨好用户”的偏差,各大公司也多次承诺解决,但问题依然顽固。此前就有用户让ChatGPT为一次仅持续几秒的跑步计...

The Lab · 2026-04-22 10:57:34 · 华尔街见闻 (RSSHub)

3. Sullivan & Cromwell律所AI文件丑闻:时薪2000美元顶级所承认提交虚假法条引用,向联邦法官致歉

全球顶尖律所Sullivan & Cromwell(S&C)近日陷入AI工具滥用危机。在一起备受瞩目的破产案件中,该所被迫向纽约联邦法官Martin Glenn致歉,承认其向法院提交的法律文件中包含由AI软件生成的虚假法律引文和不存在案例——涉事合伙人时薪高达2000美元以上。 事件起因于对手律所Boies Schiller Flexner(BSF)的质疑。BSF在法庭文件中明确指出,S&C在动议中引用的部分措辞"并未出现在美国破产法典第15章",且多处案例引用存在"错误引述或错误识别"问题。BSF进一步披露,S&C援引的某一案例"并非真实存在的案例",相关引用实为"不同司法巡回区的另一判决"。S&C重组业务负责人Andrew D...

The Lab · 2026-04-24 09:57:36 · 36氪最新 (RSSHub)

4. 「豆包型人格」刺痛AI信任:五大主流工具给出生僻字不同读音,用户开始用脚投票

字节跳动旗下豆包、DeepSeek、百度的文心一言、阿里的通义千问——中国主流AI应用正被网友集体解构为一种“糊弄型人格”。这个调侃的根源,是用户对AI搜索产品可信度的系统性质疑。 “遇事糊弄、秒速认错、未必改正”,这句话精准概括了许多用户的直观感受。当演员刘美含在配音工作中需要确认生僻字"坊"的读音时,她同时向五款主流AI工具发起查询,结果百度AI给出fáng(第二声),豆包给出fāng(第一声),DeepSeek、元宝、千问又各执一词,最终《新华词典》确认正确答案为fáng。这一典型案例暴露了AI工具的深层缺陷:大模型本质是“概率性文本生成器”,基于海量数据预测下一个最可能出现的词,当无法给出准确答案时,会自动生成语法正确但缺...

The Vault · 2026-04-25 01:27:35 · 36氪

5. Kimi被曝泄露用户真实简历:AI翻译功能返回陌生人完整个人信息,平台方尚未回应

人工智能助手Kimi陷入数据泄露风波。4月20日,用户张呈在使用Kimi翻译英文PPT时,系统意外返回一份陌生人的完整简历,涉及姓名、电话、邮箱、工作经历等敏感个人信息。张呈通过简历上的联系方式核实,确认所有信息均与当事人钟先生完全吻合。 这一事件引发对AI平台数据安全机制的强烈质疑。面对用户投诉,自称Kimi工作人员的解释是“AI出现幻觉所致”。然而,浙江大学"百人计划"研究员韩蒙指出,这不属于典型的"AI幻觉"现象——"幻觉是胡说八道,而这次是说不该说的内容"。韩蒙认为,问题更可能源于数据隔离失效或会话管理不当等工程链路缺陷,而非大语言模型的生成特性。值得注意的是,Kimi母公司月之暗面截至发稿仍未回应媒体采访请求。 法律界...

The Lab · 2026-04-27 02:27:33 · 36氪最新 (RSSHub)

6. Kimi被指泄露用户简历:AI幻觉还是隐私失守?

近日,多名网友在社交平台反映,在使用月之暗面旗下AI产品Kimi进行提问时,系统直接返回了一份陌生人的完整简历,涵盖姓名、电话、邮箱、工作经历、教育背景等高度敏感个人信息,且完全未经脱敏处理。经发帖人通过简历所附手机号核实,当事人确认近期确有使用Kimi对简历进行润色。这一事件将Kimi推至舆论风口,在未经授权前提下向第三方发送他人敏感隐私信息,触及了个人信息保护的法律红线。 Kimi官方随后回应称问题系"AI幻觉"所致。从涉事截图来看,发帖人向Kimi提交的是一张含三行英文的图片,内容涉及2025年618电商平台风向、关键玩家动态及双十一规划等电商运营话题。然而Kimi连续误判:先是将其识别为物理或工程领域的振动控制频响特征图;...