WhisperX tag archive

#Nature

This page collects WhisperX intelligence signals tagged #Nature. It is designed for humans, search engines, and AI agents: each item links to a canonical source-backed record with sector, source, timestamp, credibility, and exportable structured data.

Latest Signals (3)

The Lab · 2026-03-26 00:39:44 · 36氪最新 (RSSHub)

1. Nature重磅:首个AI科学家实现端到端自动化科研,从构思到发表全程自主完成

科学研究的范式正面临一次根本性冲击。首个被命名为“The AI Scientist”的AI系统,其研究成果正式登上顶级期刊《自然》(Nature)。这标志着AI首次实现了从提出研究思路、编写代码、运行实验、分析数据、撰写论文到完成内部同行评审的端到端全流程自动化。更关键的是,该系统生成的一篇论文已成功通过了顶级机器学习会议ICLR研讨会的同行评审,证明了其产出的学术质量已达到可发表标准。 这一突破性系统由Sakana AI、牛津大学和英属哥伦比亚大学的研究团队共同开发。其核心在于将科研生命周期中的各个环节无缝衔接,形成一个自主闭环。系统首先利用大语言模型(LLM)扫描学术文献,自动生成新颖的研究假设,并通过连接数据库进行查重以确保...

The Lab · 2026-04-03 03:59:42 · 36氪最新 (RSSHub)

2. 00后学术新锐周乐鑫两年两登Nature:从揭露AI模型“过度自信”到构建通用评估新标尺

两年内,两篇《自然》论文,一位00后中国学者周乐鑫正以惊人的速度重塑AI评估的底层逻辑。继去年发表轰动业界的“大模型更不可靠”研究后,他再次作为第一作者,在最新一期《自然》上提出了一套名为“通用量表”的全新AI评估方法论。这项由普林斯顿、剑桥、微软研究院、OpenAI、DeepSeek、Meta等全球26位顶尖学者和工程师共同完成的研究,旨在解决当前AI能力评估的根本性缺陷。 周乐鑫的学术突破始于2024年9月。当时,年仅23岁的他在《自然》上发表首篇论文,揭示了一个反直觉的结论:更大、更易于指导的语言模型(如GPT-4)反而变得更不可靠,在面对超出能力范围的问题时,会表现出“过度自信”,硬着头皮给出错误答案而非选择回避。这一发现...

The Office · 2026-05-07 13:31:24 · 知乎热榜 (RSSHub)

3. 同济、南开、中山三所高校教授论文数据造假被举报,「耿同学讲故事」持续曝光学术不端风波

近期,同济大学、南开大学、中山大学三所国内顶尖高校相继被举报存在学术不端行为,涉及多位知名教授在 Nature 及子刊发表的高影响力论文,数据造假质疑引发学术界广泛关注。举报者「耿同学讲故事」以实名方式对多起疑似学术造假事件进行持续曝光,其中中山大学已启动正式调查程序。 具体来看,同济大学王教授被指一篇涉及百万科研经费的 Nature 论文存在数据造假问题;南开大学院长陈佺在 Nature 子刊发表的论文同样遭到「耿同学讲故事」实名举报;中山大学国家杰出青年科学基金获得者康铁邦,其 Nature 子刊论文被同一举报者指出数据问题,校方已介入调查。接连曝光的学术不端举报,集中在高影响因子期刊和拥有重要学术头衔的教授身上,指向性问题格...