最新消息:关注人工智能 AI赋能新媒体运营

乐天AI 3.0被曝套壳DeepSeek,自称“日本最大”引争议

科技资讯 admin 浏览

“日本最强大模型”被扒是“中国底座”?乐天风波引爆全球AI圈

上周,日本乐天集团高调宣布推出“日本最大、性能最强”的自研大语言模型——Rakuten Large Language Model(Rakuten-LLM),声称其拥有7000亿参数,由日本经济产业省(METI)旗下的GENIAC项目全力支持,是“日本AI自主突破的里程碑”。发布会现场掌声雷动,政商界人士纷纷点赞,媒体标题满屏“日本AI崛起”。

但不到48小时,开源社区就掀开了这层“国产光环”的底牌。

一位来自德国的AI工程师在Hugging Face上对比了Rakuten-LLM的config.json文件,发现其架构名称赫然写着:“DeepseekV3ForCausalLM”——这是中国AI公司DeepSeek于2024年初开源的模型架构,以高效推理和低成本训练闻名全球。更惊人的是,模型权重结构、分词器配置、注意力头数等核心参数,几乎1:1复刻了DeepSeek-V3的原始设计。

这不是“借鉴”,而是“换皮”。

事实是,乐天并未从零训练一个7000亿参数模型——那需要数万张A100显卡、数月算力和上亿美元投入。他们做的是:下载DeepSeek-V3开源权重,在日本本地语料(新闻、论坛、政府文书)上做了几轮微调,然后包装成“日本自研”。

“融合开源精华”?没提一句中国团队

乐天的官方新闻稿里,通篇只提“融合开源社区精华”,却只字不提DeepSeek的名字。在GitHub上,原本必须随代码附带的MIT许可证文件被悄然删除。直到舆论发酵后,乐天才匆忙补上一份NOTICE文件,把DeepSeek的名字塞进角落——但文件格式混乱,连作者署名都拼错了一次。

“这不是法律问题,是道德问题。”一位曾参与DeepSeek开源项目的中国开发者在X(原Twitter)上写道,“我们开源,是希望推动技术进步,不是被拿来当跳板,贴上别人家的国旗。”

MIT许可证明确要求:任何衍生作品必须保留原始版权声明。乐天的“先删后补”,被网友戏称为“AI界的‘偷换标签’”——就像把iPhone拆了,换上“日本制造”的标,然后卖得比苹果还贵。

全球开发者愤怒:谁在真正推动AI进步?

这场风波迅速出圈。GitHub上,DeepSeek-V3的星标一夜暴涨4000+;Reddit的r/MachineLearning板块热帖浏览量超百万;日本本土开发者论坛Qiita上,一篇题为《我们不需要“假自研”》的帖子获得近万点赞,评论区几乎一边倒:“我们想要的是技术,不是宣传。”

更讽刺的是,就在乐天发布同一天,中国阿里云宣布开源Qwen3-72B,性能对标GPT-4,且完全开源、无任何使用限制。而乐天的“7000亿参数”模型,连训练数据集都没公开,推理API也仅对内部客户开放。

有技术分析指出,乐天模型的实际性能,甚至不如原版DeepSeek-V3在日语任务上的表现——这意味着,他们连“微调优化”都没做到极致,只是把别人的成果重新贴牌。

日本政府沉默,企业该为透明度负责

截至目前,乐天集团仍未就“删除许可证”和“架构抄袭”作出正式回应。日本经济产业省也未表态,只称“项目符合技术合作规范”。但日本科技媒体《日经BP》私下透露,METI内部已有人对“过度包装”感到不安。

这不是第一次发生类似事件。2023年,韩国一家初创公司曾用Llama 2微调后自称“韩语最强模型”,被揭发后道歉下架。但乐天不同——它背靠日本巨头、政府背书,影响力远超普通创业公司。它的行为,正在扭曲公众对“技术自主”的理解。

AI时代,真正的“自研”不是换个名字、加点日语数据。是能从零设计架构、能优化训练算法、能开源贡献社区。而乐天,更像是一个熟练的“技术组装工”。

全球开发者正在用脚投票:开源不是免费的原料库,而是信任的契约。谁尊重它,谁才配得上“领先”二字。

当一个国家的科技宣传,依赖于掩盖他人的成果,那所谓的“崛起”,不过是镜中花、水中月。