最新消息:关注人工智能 AI赋能新媒体运营

德国教授因关闭ChatGPT数据授权,两年科研成果惨失

科技资讯 admin 浏览

一场“点错按钮”引发的学术浩劫:德国教授两年心血一夜清零

2024年春天,德国科隆大学植物科学教授 Marcel Bucher 做了一件再普通不过的事——他关闭了 ChatGPT 里那个叫“数据征得同意”的开关。他本以为这只是个无关紧要的隐私设置,就像关掉手机应用的个性化广告一样。可就在他点击确认的那一刻,两年来积累的科研心血,连同上千条对话记录、项目申请书草稿、论文修改版本、课程讲义和考试题库,全部消失了。

没有警告,没有回收站,没有“撤销”按钮。只有屏幕一黑,页面空白,像被风吹散的纸页,连灰都没留下。

Bucher 教授不是技术小白。他清楚 AI 会“幻觉”,会编造文献,所以他从不直接引用模型输出。但他信任这个平台——就像信任实验室里的电脑、云盘或邮箱。他把 ChatGPT 当成一个随时能对话的科研助手:帮他润色英文摘要、整理参考文献格式、模拟审稿人意见,甚至在深夜赶稿时陪他理清逻辑。这些对话,他从没想过要手动存档。

“我以为它会一直在这儿,”他在接受《自然》采访时说,“我没想到,一个开关,就能让我所有的努力归零。”

网友吵翻了:是教授太懒,还是平台太危险?

事件曝光后,社交媒体炸了锅。

“两年不备份?你当AI是保险箱?”“学术圈的‘数字懒汉’典型。”——这类评论在 X(原Twitter)和 Reddit 上被顶到热门。有人贴出自己用 Notion+本地Markdown+Git版本控制管理科研笔记的全套流程,言下之意:你连基础的数字素养都没有,活该丢数据。

但另一些声音却在追问:为什么一个被全球数百万科研人员依赖的工具,连个“历史记录”或“导出全部对话”的按钮都没有?为什么删除前的确认弹窗,对Bucher教授“失效”了?

OpenAI随后回应《自然》称:“用户在删除对话前会收到明确提示”,并强调“一旦删除,无法恢复”。但Bucher教授坚称,他从未看到任何弹窗。更令人不安的是,多位学者在论坛透露,他们也曾遇到类似情况——关闭数据使用选项后,对话记录“无声消失”,没有任何确认步骤。

有技术博主在GitHub上发起调查,收集了37位使用ChatGPT进行科研的学者的反馈。其中12人表示曾“无意中清空过对话”,但只有3人记得看到过警告;其余9人,和Bucher一样,完全没察觉。

这不是个例,是系统性风险

这不是第一次AI平台“吃掉”用户数据,但这是第一次发生在顶尖学者身上,且影响如此具体、沉重。

2023年,美国一名研究生在使用Claude时,因误触“清除上下文”,丢失了三个月的论文初稿,最终不得不重写。2024年初,日本一名博士生的实验设计思路因ChatGPT会话被自动清理,导致研究方向偏离,延期半年。

更深层的问题是:我们正在把科研的“记忆”外包给一个不属于我们的系统。你不能备份它,不能审计它,不能预测它何时会“遗忘”。它不归你所有,它只是租来的工具。

“我们教学生写论文要引用文献,要标注来源,”Bucher说,“可我们自己,却把最核心的思考过程,交给了一个连‘保存’按钮都没有的黑箱。”

现在,你该怎么做?

这件事没有标准答案,但有清晰的行动指南:

  • 永远本地备份:任何你认为有价值的文字,哪怕只是一句灵感,立刻复制到本地文档(Word、Notion、Obsidian、甚至记事本),并定期存入云盘或硬盘。
  • 别把AI当硬盘:它不是你的文件柜,是你的草稿纸。用完即弃,别指望它记得你。
  • 主动导出:部分平台(如Perplexity、Claude)支持导出对话为PDF或TXT。即使ChatGPT不提供,你也可以手动复制粘贴,每周花10分钟整理一次。
  • 警惕“隐私开关”:关闭数据训练选项,可能意味着你也会失去访问历史的能力。这不是“更安全”,而是“更孤立”。

Bucher教授没有放弃。他重新开始整理资料,这次,他把每一次和AI的对话都手动存进自己的文献管理软件里。他告诉学生:“你可以用AI思考,但别让它替你记忆。”

他的故事,不该只是一则科技事故。它是一记警钟——在我们拥抱智能工具的同时,别忘了:真正的学术,永远扎根于你自己的硬盘,而不是别人的服务器。