678CHAT AI资讯 专家说:会聊天不等于会思考,大模型搞不出真正的通用人工智能

专家说:会聊天不等于会思考,大模型搞不出真正的通用人工智能

11月30日,一项来自神经科学与人工智能交叉领域的深度反思正在引发行业震动。长期以来,人们习惯将语言能力视为智能的核心标志,但越来越多的研究表明,这种认知可能严重误导了当前AI发展的方向。认知共振(Cognitive Resonance)风险投资公司创始人本杰明·莱利(Benjamin Riley)近日在《The Verge》发表评论指出,大语言模型(Large Language Models, LLMs)或许只是披着“智能”外衣的高级模仿者,而非通往通用人工智能(Artificial General Intelligence, AGI)的真正路径。

专家说:会聊天不等于会思考,大模型搞不出真正的通用人工智能插图

莱利强调:“人类确实用语言思考,但语言本身并非思维的全部。神经科学早已揭示,我们的认知系统在很大程度上独立于语言运作。这意味着,无论我们如何优化语言建模,都不可能仅凭文本数据训练出具备真正理解力和推理能力的智能体。”在他看来,当前AI行业对LLMs的过度依赖,本质上是一种建立在误解之上的技术狂热——将语言的流畅性误认为智能的深度。

AGI被广泛描绘为一种能够像人类一样灵活应对各类复杂任务的超级智能,甚至有望解决癌症、气候变化等全球性难题。然而,这种愿景正成为AI巨头们为其天文数字般的资本开支和巨大能源消耗辩护的“道德盾牌”。业界普遍迷信“规模扩展”(scaling)逻辑:只要投入更多数据、更多GPU,模型就会越来越“聪明”。但莱利尖锐指出,这种思路忽略了智能的本质结构——大语言模型再强大,也只是在复述人类已有表达的统计规律,而非构建独立的认知框架。

支持这一观点的证据来自多个维度。功能性磁共振成像(fMRI)研究显示,人类在进行数学推理与语言处理时激活的是大脑中截然不同的区域;而失语症患者即便丧失语言能力,仍能完成逻辑推理、识别情绪、执行非语言指令,这进一步证明语言并非思维的必要条件。这些发现直接挑战了“语言即智能”的简化论。

值得注意的是,AI学界内部也存在强烈质疑声音。图灵奖得主、Meta首席AI科学家杨立昆(Yann LeCun)长期批评大语言模型的局限性,主张转向“世界模型”(world models)——即通过感知物理世界中的多模态数据(如视觉、触觉、空间关系)来构建对现实的理解,而非仅依赖文本。他认为,真正的智能必须建立在对环境的具身认知之上。

最新研究更从创造力角度揭示了LLMs的天花板。南澳大利亚大学工程创新教授大卫·H·克罗普利(David H. Cropley)在《创意行为杂志》发表的分析指出,由于大语言模型本质上是基于概率预测的系统,其输出终将陷入“新颖性”与“意义性”的两难困境:要么重复已有内容,要么生成看似新奇却毫无价值的组合。因此,即便最先进的AI,也最多只能成为“合格的平庸写手”,无法达到专家级创作者的原创高度。

克罗普利警告:“如果社会过度依赖这类系统进行内容生产,最终将导致文化产出的同质化与创造力枯竭。真正的创新需要突破既有框架,而大语言模型永远被困在训练数据所划定的语言牢笼之中。”

莱利最后总结道:“AI可以巧妙地重组我们的知识,但它无法超越我们已有的思想边界。它是一台‘死喻机器’,不断回响着人类话语的残影,却从未真正理解其中的意义。”在AGI热潮席卷全球之际,这样的冷静反思或许正是行业最需要的清醒剂。

本文来自网络,不代表678CHAT立场,转载请注明出处:https://www.678chat.com/ai/21561.html

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注

返回顶部