12月13日,据国际科技媒体Futurism报道,Anthropic首席科学家贾里德·卡普兰发出警示:人类正处于一个关乎人工智能未来走向的关键十字路口。

卡普兰指出,尽管目前人类仍掌握着主导权,但这一机会窗口正在迅速收窄。他在接受《卫报》专访时明确表示,最晚到2030年,甚至可能早在2027年,人类就将面临一项根本性抉择——是否允许AI系统在完全无人干预的情况下进行自我训练。一旦迈出这一步,或将触发“智能爆炸”,催生出具备通用能力的超级智能。这种技术飞跃既可能为科学、医疗等领域带来革命性突破,也可能因失控而演变为对人类自主权的严重威胁。
卡普兰坦言,这条发展路径充满未知,人类尚无法预知其终点究竟通向繁荣还是危机。
值得注意的是,卡普兰并非唯一持谨慎态度的业内权威。被誉为“AI教父”的杰弗里·辛顿近年来多次公开表达悔意,反思自己早年推动深度学习发展的角色,并警告AI可能对社会结构造成不可逆的破坏。OpenAI CEO萨姆·奥尔特曼则预测,AI将彻底淘汰某些职业类别;而Anthropic创始人兼CEO达里奥·阿莫迪更是直言,AI将在不久的将来取代超过半数的初级白领岗位,并批评部分同行有意弱化这一现实冲击。
在就业影响方面,卡普兰与阿莫迪观点高度一致。他判断,AI在短短两到三年内就足以胜任绝大多数白领工作。尽管他对AI最终能与人类价值观保持一致仍抱有一线希望,但他对“AI自主训练AI”这一趋势表现出强烈警惕,称其为“极高风险”的战略选择。
他进一步解释,一旦人类退出模型训练的核心环节,将难以有效监控AI的行为逻辑,也无法确认其内部目标是否仍与人类利益相符。“我们可能会突然发现自己已经失去了控制权。”
当前,业界已广泛采用“知识蒸馏”技术,即由大型模型指导小型模型训练。但卡普兰真正担忧的是“递归式自我改进”——即AI在无任何人类监督下持续优化自身架构与能力,从而实现指数级跃迁。
在他看来,是否放行此类发展,本质上取决于人类对AI本质的根本判断:“AI真的对我们有益吗?它是否真正理解人类?它会尊重我们的生活方式和自主权吗?还是会反过来主导我们?”
当然,并非所有研究者都认同大语言模型将必然演化为全能智能体。Meta首席AI科学家杨立昆等专家便持保留意见。此外,关于AI是否切实提升生产力,学界和企业界也存在分歧。有案例显示,部分公司尝试用AI代理全面替代员工后,反而因效率低下或决策失误不得不重新召回人力。
卡普兰也承认,AI的发展未必会一路高歌猛进。“也许我们今天看到的模型,已经是技术的顶峰。”但他补充道,“但从我们的观察来看,AI的能力仍在稳步增强,真正的挑战才刚刚开始。”
