GitHub Copilot CLI 新增“橡皮鸭”功能:让AI互相挑错
4月6日,微软在GitHub Copilot CLI中悄悄上线了一个名为“橡皮鸭”(Rubber Duck)的实验性功能。它不搞花哨的术语,也不承诺“颠覆开发流程”,而是做了一件程序员都懂的事:让AI替你再看一遍代码。
你有没有过这样的经历?写完一段代码,自己反复检查,总觉得哪儿不对,但就是说不上来。不是你粗心,而是人容易被自己的思路带偏。现在,Copilot不再只靠自己判断,而是会叫上另一个AI——比如Claude Sonnet 4.6和GPT-5.4——一起看。两个模型分别从不同角度审阅,互相挑刺,再把结果汇总给你。

不是AI更聪明了,而是它学会了“找人商量”
过去,AI辅助编程的短板在于:它总在同一个“思维框架”里打转。训练数据、模型结构、语言偏好,都会让它在某些问题上反复踩坑。比如漏掉边界条件、误判依赖关系、跨文件变量冲突——这些问题,人类程序员都容易忽略,AI更难自己发现。
“橡皮鸭”不追求单个模型的极限性能,而是用“对比机制”来补短板。SWE-Bench Pro测试数据显示,当Claude Sonnet 4.6单独运行时,面对复杂任务的准确率比Opus 4.6低不少。但加上“橡皮鸭”后,它能挽回74.7%的差距。在真实项目中,用户反馈它能揪出这些细节:
- 某个循环少了一次迭代,导致数据丢失
- 两个文件里定义了同名变量,但作用域冲突
- 接口文档写着“支持异步”,代码却没加await
这些都不是“大错”,但都是线上事故的前兆。
想什么时候看,就什么时候看
这个功能不强制、不打扰,完全由你掌控。它有三种模式:
- 主动触发:写完一段逻辑,输入
/rubberduck,立刻获得一份对比报告。 - 自动提醒:当你在写测试、重构复杂函数或修改多个文件时,系统会轻声问:“要我叫个帮手看看吗?”
- 被动观察:如果你卡在某个报错上超过5分钟,它会悄悄启动审查,不弹窗,只在侧边栏给你一条提示:“有建议,点开看看?”
每次审查都会给出清晰的对比:哪个模型发现了什么问题,为什么觉得这是个问题,有没有替代方案。你不需要全盘接受,但至少能多一个视角。
怎么用?现在就能试
你不需要等内测资格,也不用升级订阅。只要你的GitHub Copilot CLI是最新版,打开终端,输入:
copilot experimental rubberduck
就能立刻启用。功能默认关闭,你得手动开启,它也不会偷偷改你的代码——它只提建议,决定权永远在你。
目前它还处于实验阶段,可能偶尔会“过度紧张”或“意见相左”。但很多开发者已经发现:它不是在帮你写代码,而是在帮你“别犯傻”。
程序员的“橡皮鸭”,从来不是玩具
“橡皮鸭调试法”是老程序员都知道的土办法:对着一只橡皮鸭,把代码一行一行讲出来,讲着讲着,问题就自己冒出来了。因为表达的过程,会逼你重新梳理逻辑。
现在,GitHub把这套方法AI化了。不是让AI代替你思考,而是让它代替那只橡皮鸭,听你讲,然后说:“等等,你刚才说的这个条件,是不是漏了?”
这不炫技,但很实用。