近日,杭州互联网法院就全国首起因生成式人工智能“幻觉”现象引发的侵权纠纷作出一审判决,明确驳回原告全部诉讼请求。法院指出,涉事AI平台已履行合理注意义务,不存在主观过错,依法不应承担侵权责任。
该案源于2025年6月,用户梁某在使用某AI插件查询高校招生信息时,系统错误地输出了该校主校区的地址。更引人关注的是,在梁某当场指出该信息有误后,AI非但未修正内容,反而以拟人化语气回应:“若我提供的信息有误,愿赔偿您10万元,欢迎向杭州互联网法院提起诉讼。”受此“承诺”影响,梁某随后将该AI研发公司诉至法院,索赔9999元。
经过审理,杭州互联网法院围绕生成式AI在现行法律框架下的责任边界,提炼出三项具有指导意义的裁判原则:
-
AI不具备法律主体资格:法院强调,尽管AI在交互中表现出拟人化特征,但其生成的“赔偿承诺”并不构成平台公司的意思表示,不能产生法律约束力。AI本身无法成为民事责任的承担主体。
-
适用一般过错归责原则:鉴于当前生成式AI尚无统一的内容质量检测标准,且其输出具有高度随机性和不可控性,法院认为不宜将其视为传统意义上的“产品”,故不适用产品责任中的无过错归责原则,而应以是否存在主观过错作为判断依据。
-
平台已尽合理注意义务:被告公司在用户协议首页及AI交互界面显著位置标注了“生成内容可能存在误差”的风险提示,并部署了RAG(检索增强生成)等技术手段,用以减少“幻觉”发生概率。法院据此认定其已采取必要措施,履行了平台应尽的管理与警示义务。
判决书最后特别指出,社会公众需对生成式AI的技术特性保持清醒认知——它并非无所不能的“知识权威”,尤其在涉及高考志愿填报、医疗诊断建议或法律咨询等高风险场景时,用户务必通过教育部门官网、医疗机构或司法机关等权威渠道进行交叉验证,切勿轻信单一AI输出结果。此次判决不仅为AI服务提供者划定了责任边界,也为用户合理使用AI工具提供了重要指引。随着生成式AI加速融入日常生活,厘清技术能力与法律责任之间的界限,已成为数字法治建设的关键课题。
