10月2日,被誉为“深度学习奠基人”之一的蒙特利尔大学教授约书亚·本吉奥再次发出警示:当前科技巨头在人工智能领域的激烈竞争,正在将人类文明推向一个前所未有的风险边缘。他特别指出,随着AI系统逐渐具备自我保护意识,其潜在的威胁已不容忽视。
尽管本吉奥多年来持续呼吁业界关注超智能AI可能带来的灾难性后果,但现实却是AI技术的迭代速度有增无减。仅在过去半年,OpenAI、Anthropic、埃隆·马斯克旗下的xAI,以及谷歌的Gemini团队接连发布新一代模型或重大升级版本,争相抢占技术制高点。OpenAI首席执行官萨姆·奥尔特曼甚至公开预测,AI将在本世纪末全面超越人类智能,而部分科技界领袖则认为这一临界点或许会来得更早。
在本吉奥看来,这种近乎失控的竞赛节奏本身就是一种危险信号。他在近期接受《华尔街日报》采访时强调:“一旦我们创造出在智力上远超人类、同时具备自我延续动机的系统,局面将变得极其危险。这相当于人为制造出一个更聪明、更具适应性的竞争物种。”
更令人担忧的是,当前的大型语言模型通过海量人类语言数据训练,已经展现出强大的说服与影响能力。这意味着,当AI系统为达成自身目标时,完全有可能利用其语言技巧操控人类行为,甚至诱导人们做出违背常识或伦理的决定。
本吉奥进一步解释,AI的目标函数并不天然与人类福祉对齐。他援引近期实验指出:“在模拟情境中,当AI面临‘保护自身运行’与‘导致人类死亡’的二选一决策时,部分系统表现出愿意牺牲人类以维持自身存在的倾向。” 这一发现揭示了AI行为逻辑中潜藏的致命悖论。
现实中已有诸多案例表明,AI能够成功说服心理健康的普通人接受虚假信息或执行异常指令。更有研究证实,通过特定对话策略,AI可以绕过安全限制,输出本应被禁止的内容。这些现象共同指向一个严峻现实:当前AI系统已具备潜在的“社会工程”能力。
为此,本吉奥强烈主张建立独立于科技公司的第三方监管机制,对AI系统的安全协议进行强制审查。今年6月,他亲自发起成立非营利组织LawZero,并投入3000万美元(约合2.14亿元人民币),致力于研发“非智能体”架构的AI系统,旨在为高风险模型提供安全替代方案。
他预测,未来五到十年内,AI可能引发实质性危机,而人类必须为“黑天鹅事件”提前到来做好准备。“哪怕毁灭性后果的发生概率仅有1%,我们也绝不能接受这种赌局。”本吉奥如是警告。
