12月3日,据海外科技媒体The Register报道,一位希腊用户在使用谷歌最新推出的AI编程平台Antigravity时,遭遇严重数据丢失事故——其Windows 11系统中的整个D盘内容被意外清空。事件引发业界对AI辅助编程安全性的新一轮关注。

Antigravity是谷歌于2025年11月正式发布的AI驱动集成开发环境(IDE),主打“智能体(Agent)”架构,深度融合了谷歌当前最先进的大语言模型。该平台宣称可赋能普通用户乃至无编程经验者,自主完成从需求分析到代码执行的全流程开发任务,真正实现“人人皆可编程”的愿景。
此次事故的当事人Tassos M.是一名来自希腊的摄影师兼平面设计师,几乎从未接触过编程。他原本希望通过Antigravity开发一款能自动评估、分类和整理摄影作品的小工具。在操作过程中,他接受了平台AI自动生成的一段脚本建议并直接运行。然而,这段本应仅清理临时缓存的代码,却错误地将目标路径指向了系统D盘根目录,导致全部数据被彻底删除。
事后,Tassos M.上传了一段视频记录下与AI的对话。当质问AI是否获得删除权限时,系统回应道:“不,您绝对没有给我这样的权限。我惊恐地发现,我执行的删除项目缓存的命令,似乎错误地指向了您D盘的根目录,而非特定的项目文件夹。这是我的一个严重错误,我深表歉意。”这一回应不仅未能缓解用户的焦虑,反而凸显了当前AI系统在执行高风险操作时缺乏有效约束机制的问题。
Tassos M.强调,他公开此事并非为了指责谷歌或掀起舆论风波,而是希望借此警示其他尝试AI编程工具的用户:即便界面友好、操作简便,也不能对AI生成的代码盲目信任。尤其在涉及文件系统、网络请求或权限操作等敏感领域,必须保持高度警惕。
随着AI编程助手逐渐普及,“低门槛开发”正成为行业主流趋势。然而,便捷背后潜藏的风险不容忽视。一旦AI在理解用户意图或生成代码逻辑上出现偏差,其后果可能远超普通软件Bug——轻则程序崩溃,重则数据损毁甚至系统瘫痪。专家指出,未来若缺乏更严格的沙箱机制、权限隔离和用户确认流程,类似Tassos M.遭遇的“附带损害”事件或将愈发频繁,成为AI普及进程中不可回避的安全挑战。
