Qwen3.5即将开源,阿里新一代大模型悄然现身Hugging Face
据财联社最新消息,阿里巴巴通义千问团队的新一代基座模型 Qwen3.5 已在 Hugging Face 的 Transformers 项目中提交了代码合并申请(PR),这意味着模型的核心代码已进入公开审核阶段,正式开源或就在近期。
从目前开发者在社区中挖掘出的线索来看,Qwen3.5 并非简单的版本迭代,而是一次架构上的重大升级。最引人注目的是,它采用了全新的混合注意力机制,在保持推理效率的同时,显著提升了长文本理解和多轮对话的稳定性。更关键的是,多方信息指向它极可能是一款原生支持视觉理解的多模态模型(VLM)——这意味着你不仅能和它聊文本,还能直接上传图片,让它看图说话、识图推理,甚至分析图表、识别场景。
开源计划也相当务实:预计将同时发布至少一个 2B 参数的密集型模型,适合普通开发者在消费级显卡上本地运行;以及一个 35B 参数的 MoE(混合专家)模型,采用 A3B 激活结构,在保持高性能的同时大幅降低推理成本。这种“大小搭配”的策略,明显是为不同需求的用户量身定制——从个人开发者到企业级应用,都有合适的版本可用。
此前业内曾有消息透露,Qwen3.5 计划在2025年春节期间上线。如今代码已现身Hugging Face,时间点愈发清晰。若如期发布,它将成为春节后国内AI圈最受关注的开源事件之一。相比一些“喊得响、落地慢”的模型,阿里这次的动作显得更务实:不靠发布会造势,而是直接把代码放到开发者最熟悉的平台,让社区来检验实力。
值得注意的是,Qwen3.5 若真具备原生视觉能力,将直接对标 OpenAI 的 GPT-4o 和 Meta 的 Llama 3.2 Vision。而它一旦开源,意味着中国开发者将首次在主流平台上,拥有一个性能接近顶尖水平、且可自由商用的国产多模态大模型——这不只是技术进步,更是一次生态的破局。
目前,已有不少开发者在GitHub和知乎上自发讨论模型结构和推理测试方案。如果你关注AI落地、想在本地跑大模型、或者正在开发图文交互产品,Qwen3.5 的发布,值得你立刻收藏关注。
