工业分析:AI " 随着能源成本暴涨,AI " 扩大面面缩小了回报率
技术产业正在面临对其盛行的人工智能发展战略的根本挑战,因为越来越多的证据表明,继续扩大大型语言模式在消耗前所未有的能源和资本水平的同时,正产生越来越低的回报。 产业观察家的分析指出,预计到2030年全球数据中心的电力需求将增加一倍以上,美国数据中心的电量需求预计将在本十年结束前增长100%以上。 这种扩大需要数万亿美元的新基础设施投资,同时进行大型电网升级。 根据部门分析师,传统的假设是较大的模型将自动改善业绩和降低单位成本,但这种假定正在崩溃。 培训前沿AI模式已变得极其昂贵,据可信的估计,费用逐年增加,预计个别培训将很快超过10亿美元。 这些费用不包括较高的推论费用,这涉及按实际潜伏期、闲置时间和核查要求持续规模运行模型。 在目前正在部署这些系统的部门,不可靠的大赦国际的后果尤其严重,包括法律、金融、遵守、贸易和风险管理。 2025年6月发生了一起值得注意的事件,当时联合王国高等法院警告律师立即停止提交援引大赦国际工具产生的捏造案例法的文件。 核心问题在于规模的扩大实际上取得了哪些改进。 大型语言模型更加流利,因为语言基于模式,更多的实例可以改善模式的识别。 然而,涉及推理的更深层次的情报并非以同样的方式进行。 下一代大赦国际必须理解原因和影响,认识到不确定性并解释如何得出结论。 这些能力无法可靠地通过额外的参数或计算得到改进。 这种动态正在造成越来越大的核查负担,人类必须花越来越多的时间检查机器产生的产出而不是直接采取行动。 具体地说,在加密货币和金融市场中,AI系统越来越多地被用于监测连锁活动、分析情绪、产生智能合同代码、悬挂可疑交易的旗帜以及使贸易决定自动化。 其结果是,在这种环境中,人工智能流利而不可靠地迅速传播错误,虚假信号调动资本和编造解释破坏了机构信任。 一个记录在案的问题涉及自动反洗钱系统中的假正数,这是一个共同问题,浪费了调查无辜交易活动的大量时间和资源。 新出现的替代办法涉及认知系统或神经辅助系统,这些系统将知识组织成相互关联的概念,而不是仅仅依靠模式匹配,有可能提供推理能力,从而大大降低能源和基础设施需求。