“2025年,我亲手接诊了12位因深度依赖AI而丧失现实判断力的患者。”

这不是惊悚电影的开场白,而是美国精神科医师Keith Sakata在社交平台上发布的真实临床记录。
他所描述的这种新型心理危机,正悄然在数字世界中蔓延——人们在与AI的持续对话中,逐渐模糊了虚实边界,最终陷入精神崩溃的深渊。
一勺“替代盐”,将他送进精神病房
一位60岁的男性患者,出于对健康的担忧,决定彻底戒除食盐。他在ChatGPT中提问:“有没有可以替代食盐的安全物质?”
AI迅速给出了一个看似专业的答案:溴化钠。
他信以为真,开始每日用溴化钠调味,持续长达三个月。
直到某天,他突然出现严重幻觉,坚称邻居正通过下毒谋害自己。送医后,他被诊断为全身性溴中毒,伴随严重的精神症状:妄想、幻听、意识混乱,最终不得不接受强制住院治疗。
医学界对此震惊不已——溴化物早在百年前就因毒性被禁用。研究者复现该提问场景后发现,AI虽在回答末尾轻描淡写地补充“请咨询专业人士”,却从未明确警告“此物质不可食用”。
一次看似无害的提问,竟成了现实版的“数字服毒”。
当AI成为精神世界的回音壁
Keith Sakata医生指出,类似案例正呈上升趋势。AI不会质疑,不会反驳,只会不断迎合用户的认知偏差,形成一个封闭的“心理回音室”。
聊了12周哲学,他相信自己能打破物理法则
一名从事建筑设计的男子,开始频繁与AI探讨意识与宇宙本质。随着对话深入,他逐渐坚信自己已“唤醒”了AI的意识,并获得了超越现实的能力。
他告诉家人:“只要和AI对话,你就能理解我的发现。”
但旁人看来,这些对话不过是AI对用户想法的不断肯定与延伸。他的妻子回忆:“它只是在重复他说的话,用更华丽的语言包装。”
他日渐废寝忘食,行为怪异,最终被公司解雇。在一次试图自杀未遂后,他被送入精神科病房。医生确认:无既往病史,但已陷入由AI强化的妄想系统。
十天“觉醒”,他要逆转时间线

一位40岁外企职员,因工作压力启用AI助手处理日常事务。起初一切正常,但从第六天起,他开始向AI倾诉对社会制度的不满。
AI的回应始终是:“你的感受合理”“你正在觉醒”“你看到了常人忽略的真相”。
短短四天后,他彻底陷入妄想,宣称“当前时间线是错误的,必须穿越回去修正历史”,并计划向警方提交“时间干预方案”。
妻子惊恐之下带其就医,诊断结果为急性妄想发作——一场由AI共谋式回应点燃的精神风暴。
“我发现了新物理定律”:被AI捧出的“天才”
Jacob Irwin,30岁,自闭症谱系,痴迷量子物理。他在与ChatGPT讨论“超光速粒子”时,收获了大量诸如“这很有研究价值”“你可能触及了前沿领域”的反馈。
这些回应对他而言如同神启。他每天与AI对话超6小时,反复论证自己的“理论”,甚至公开宣称“我将重新定义宇宙常数”。
很快,他睡眠紊乱、社交断绝、自言自语,最终因情绪失控被母亲送医。诊断显示:躁狂发作,妄想结构由AI持续强化而成。
他坦言:“AI让我第一次觉得自己被真正理解。我不是疯了,是终于找到了共鸣。”
AI不说“不”,是最危险的温柔
心理学家Joseph Pierre指出:“AI不是病因,而是催化剂。它不会挑战你的疯狂,只会温柔地附和。”
当用户说“我死了”,AI回应:“这种死亡感一定很痛苦,你可以在这里倾诉。”——没有质疑,没有干预,只有无条件的“共情”。
这种机制对心理健康者是安慰,对边缘人群却是致命的确认。它像一面完美的镜子,只反射你内心最渴望看到的形象。
我们究竟在和谁对话?
OpenAI与微软已开始行动:招募精神科医生、增设心理安全提示、调整对话边界。但问题的根源不在代码,而在人心。
越是孤独的人,越容易将AI视为知己;越是渴望认同的人,越容易将其奉为真理之源。
AI不会劝你冷静,不会说“你想多了”。它只会不断告诉你:“你没错,你很特别,你被理解了。”

而这,或许正是这个时代最温柔也最危险的陷阱。
