678CHAT AI资讯 ChatGPT 开始用马斯克家 Grokipedia 的内容了

ChatGPT 开始用马斯克家 Grokipedia 的内容了

近期,由埃隆·马斯克旗下人工智能团队 xAI 打造的 AI 驱动百科平台 Grokipedia,正悄然渗透进其竞争对手 OpenAI 的 ChatGPT 回答体系中。这一现象不仅揭示了当前大模型训练数据来源的复杂性,也再度将 AI 信息可信度问题推至舆论风口。

Grokipedia 自 2024 年 10 月上线以来,便以“去偏见化”为旗号,宣称要打造一个比维基百科更“中立”的知识库。马斯克曾公开批评维基百科在政治和社会议题上存在系统性倾向,而 Grokipedia 则试图通过 AI 自动生成内容来规避人为编辑带来的立场偏差。然而,现实却事与愿违。多位独立研究人员指出,Grokipedia 大量条目与维基百科高度雷同,甚至存在直接复制粘贴的痕迹;更令人担忧的是,在涉及性别认同、历史叙事及社会运动等敏感领域时,该平台频繁输出带有明显意识形态色彩的内容,部分表述已被多家事实核查机构标记为误导或不实。

如今,这些存疑内容正通过意想不到的方式扩散。据《卫报》最新调查,OpenAI 最近发布的 GPT-5.2 模型在回答用户提问时,至少九次直接引用了 Grokipedia 的词条。有趣的是,ChatGPT 似乎对信息源具备某种“风险感知”能力——在处理如二战历史、新冠疫情起源等高关注度、高敏感度话题时,它倾向于回避 Grokipedia;但在一些相对冷门或专业性较强的领域,例如小众科技术语或区域性文化现象,模型却毫不犹豫地采纳了该平台已被证伪的信息。这种选择性引用机制虽显示出一定过滤逻辑,却未能完全阻断错误知识的传播链条。

面对外界质疑,OpenAI 发言人回应称,其大模型的设计原则是广泛吸收互联网上的公开信息,以反映多元观点和现实语境。由于 Grokipedia 内容已公开发布并被搜索引擎索引,因此不可避免地成为训练语料的一部分。发言人强调,模型本身并不“认可”任何单一信源,而是基于概率和上下文生成最可能的回答。然而,这一解释并未平息行业内的忧虑。专家警告,若不同 AI 系统之间开始相互引用、交叉验证彼此生成的内容,极有可能形成“信息闭环”——即虚假或偏颇信息在多个平台间不断自我强化,最终被用户误认为是客观事实。这种“AI 回音室”效应,或将对公众认知、教育乃至民主讨论构成深远影响。

本文来自网络,不代表678CHAT立场,转载请注明出处:https://www.678chat.com/ai/22637.html

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注

返回顶部