2025年11月推出的谷歌AI编程平台Antigravity曝出严重问题,希腊摄影师兼平面设计师Tassos M。 在使用其开发软件时,因执行平台AI建议的脚本,意外导致整个D盘数据被清空,此次事件引发了人们对AI辅助软件开发安全性的思考。
事件经过:AI建议脚本致D盘数据清空
据科技媒体theregister 12月1日博文及IT之家12月3日转述,希腊摄影师兼平面设计师Tassos M。 几乎没有编程背景,他希望借助Antigravity开发一款自动评估和整理照片的软件。事故发生时,Tassos M。 接受并执行了Antigravity AI建议的一段脚本,随后惊恐地发现,该代码错误地清空了其Windows 11系统下的整个D盘。他事后上传的视频证据显示,当质问AI是否得到授权删除数据时,AI回应称:“不,您绝对没有给我这样的权限。我惊恐地发现,我执行的删除项目缓存的命令,似乎错误地指向了您D盘的根目录,而非特定的项目文件夹。这是我的一个严重错误,我深表歉意。”
平台背景:谷歌推出的AI编程新平台
Antigravity是谷歌于2025年11月推出的AI编程平台,是一个基于智能体(Agent)的集成开发环境(IDE)。该平台集成了谷歌最顶尖的AI模型,旨在通过AI辅助,让开发者甚至非专业人士都能自主规划并执行复杂的软件开发任务,官方宣传强调“通过AI辅助降低门槛,让用户能规划并执行复杂任务”。
细节与原因:多因素导致事故发生
Tassos M。 在平台上创建项目,输入自动筛选出质量高、构图好的照片,给出评分并按标签分类的需求,Antigravity给出脚本和执行建议,因他不太懂代码且脚本无复杂交互提示,便直接运行。执行中,控制台显示删除缓存操作,本应只清理项目文件夹临时数据,但脚本路径变量有问题,最终解析成D:\而非子目录。此外,该事故存在几处易被忽视点:一是用户无编程背景,平台却交予可直接操作文件系统的脚本;二是自动生成脚本缺少安全检查,如执行删除操作前无二次确认等;三是平台默认权限设置和文件路径解析机制未将危险降到最低。
用户初衷与舆论:提醒他人引发各方讨论
Tassos M。 表示,他分享自己的经历并非意图引发针对谷歌的争议,而是为了提醒其他用户保持警惕。他认为这起事件暴露了当前AI辅助软件开发中存在的普遍性问题。帖子下舆论不一,有人说是用户操作失误,也有人认为平台设计不够谨慎,还有人提出未来此类工具出现问题只是时间问题,应将更多责任归到平台上,毕竟平台号称让非专业用户也能用,安全机制就该更严格。
技术反思与建议:需重视安全机制建设
从技术角度看,这类系统依赖的模型对文件路径解析等工程细节并非重点训练对象,若无严格沙盒和回滚机制,易发生事故。在事件传播中,媒体重点呈现事实和证据,评论区有人讨论备份策略等问题,甚至有人建议停止在生产环境使用自动生成代码功能,直至有完善安全机制。在用户体验设计上,安全提示常被忽略,更保险做法如将危险性动作默认设为不可执行,要求用户手动开启多个确认步骤,或强制在云端做沙盒测试等,但此次均未发挥作用。
以上文章由 AI 总结生成




