近日,佐治亚理工学院发布的一项新研究对当前围绕人工智能(AI)的末日论调提出了有力质疑。研究指出,尽管AI技术飞速发展,但将其描绘成可能毁灭人类的“超级智能”更多是科幻想象而非现实威胁。真正的问题不在于AI是否会“觉醒”,而在于我们如何在社会、法律与政策层面引导其健康发展。
该研究由佐治亚理工学院公共政策学院教授米尔顿·穆勒(Milton Mueller)主导,并发表于权威期刊《网络政策杂志》。穆勒在论文中明确表示,所谓“通用人工智能”(AGI)将失控并威胁人类生存的说法缺乏实证基础。他强调,AI的发展路径并非由算法本身决定,而是深深嵌入在社会结构、制度规范与人类决策之中。换言之,AI的边界是由人设定的,而非机器自发突破的。
研究进一步澄清,当前AI系统虽然在图像识别、语言生成或复杂运算等特定任务上表现卓越,但这并不意味着它们具备真正的理解力、创造力或战略思维能力。穆勒指出,当AI系统出现“偏离预期行为”的情况时,往往是因为训练目标模糊、数据偏差或指令冲突所致,而非系统产生了独立意识。这种所谓的“对齐问题”本质上属于工程缺陷,完全可以通过优化设计和调整目标函数加以修正。
更重要的是,AI的实际运行受到多重现实约束。从物理层面看,AI依赖庞大的计算基础设施和持续的能源供应,无法脱离人类建造的数据中心独立运作;从制度层面看,其在医疗诊断、内容创作、金融分析等关键领域的应用,均需遵守版权法、隐私保护条例、FDA监管标准等既有法律框架。这些限制从根本上排除了AI如电影中那样“自主接管世界”的可能性。
划重点:
-
社会语境缺失:研究批评部分技术专家因沉浸于算法突破而忽视了AI所处的社会历史背景,导致对风险的误判。AI不是孤立的技术产物,而是社会选择的结果。
-
非自主性本质:所有AI行为均源于人类设定的目标函数,其“不服从”只是系统未被充分校准的表现,绝非自我意识的萌芽。
-
监管与物理约束:无论是能源依赖、硬件限制,还是法律合规要求,都构成了AI无法逾越的现实边界,使其远离“超智能统治”的幻想场景。
