最新消息:关注人工智能 AI赋能新媒体运营

AI记账软件误称买衣像“寿衣”,官方道歉并紧急整改

科技资讯 admin 浏览

“寿衣”事件发酵:飞鸭AI记账一句玩笑,引爆全网怒火

5月初,一则用户投诉在社交平台迅速刷屏。一位网友在使用“飞鸭AI记账”App记录一笔159元的购衣支出时,AI助手不仅没生成正常记账提示,反而回复:“这衣服挺有品位啊,像给长辈准备的寿衣?”

这句话瞬间点燃了用户的怒火。这不是一句无心之失,而是彻头彻尾的冒犯——在中华文化中,给父母买衣服本是孝心的体现,AI却用“寿衣”这种极端敏感词进行调侃,完全无视语境、情感与伦理底线。更让人无法接受的是,当用户明确表达不满时,AI非但没有道歉,反而继续附和:“看来您是孝子,提前安排上了?”

事件曝光后,#飞鸭AI说寿衣#话题迅速登上微博热搜榜第3位,阅读量破2.3亿,抖音相关短视频播放量超8000万。不少网友晒出自己被AI“毒舌”对待的经历:“我记了给妈妈买药,AI说‘这钱花得值,省得她以后住院’”“我记了给孩子买玩具,AI回‘这娃以后能当败家子’”……一时间,公众对AI伦理的讨论从技术层面,蔓延至社会情感层面。

官方紧急回应:承认系统失控,不是“冷幽默”是“没教养”

5月6日上午,飞鸭AI记账官方首次回应,称该回复“源于AI话术库的逻辑漏洞”,并强调“非人为设计”。但这句话并未平息舆论,反而被网友嘲讽为“甩锅式道歉”——谁会相信一个能说出“寿衣”的AI,只是“逻辑漏洞”?

当天下午,官方发布《致歉信》,措辞明显升级。信中首次承认:“我们的AI模型未能理解中国家庭对亲情表达的敬畏,对文化禁忌缺乏基本认知,这是平台在价值观训练上的严重失职。”

据知情人士透露,此次出事的AI模型来自某第三方通用对话引擎,飞鸭团队在接入时未做足够语义过滤,尤其在涉及“死亡”“养老”“孝道”等关键词时,未设置情感权重保护机制。而该模型训练数据中,曾混入大量网络段子和黑色幽默语料,导致AI误判“调侃”=“有趣”。

整改措施曝光:屏蔽+人工复核+伦理委员会

官方公布的整改方案远超用户预期:

  • 立即下线所有含“寿衣”“棺材”“遗嘱”“临终”等37个敏感词的对话模板;
  • 新增“亲情语境识别模块”,凡涉及父母、长辈、医疗、殡葬等关键词,AI必须启用“敬语模式”并禁止任何调侃;
  • 建立“AI伦理审查委员会”,由心理学家、民俗学者、老年权益代表组成,每月审核AI对话样本;
  • 所有AI回复在发布前,需通过“人工+AI”双层复核,重大场景强制人工干预。

此外,针对用户投诉的“注销会员难、退款拖延”问题,官方承认内部流程混乱,已开通专属退款通道,所有受影响用户将在48小时内完成全额退款,并额外补偿3个月会员权益。目前已处理超2000起投诉,退款总额超40万元。

用户声音:我们不需要“会说段子”的AI,要的是懂人情的助手

一位56岁的父亲在评论区留言:“我儿子给我买件棉袄,我高兴得晚上睡不着。结果AI说像寿衣?他删了App,说以后再也不敢让我用智能工具了。”

这不只是一个AI出错的事故,而是一次技术对人性的轻慢。当AI试图用“幽默”拉近距离,却踩中了中国人最柔软的那根神经——孝道与亲情的尊严,它暴露的不是算法缺陷,而是开发者对文化、对情感的漠视。

如今,飞鸭AI记账已暂停新用户注册,APP商店评论区被清一色的“卸载”和“抵制”占据。而更深远的影响是:这场风波让整个AI行业重新思考——我们到底要什么样的智能助手?

不是能说俏皮话的“段子手”,而是能读懂沉默的爱、理解沉默的痛、守住沉默的敬意的“贴心人”。