HappyHorse正式开启灰度测试,国产AI视频生成迎来新标杆
近日,阿里巴巴ATH创新事业部发布新一代多模态视频生成模型HappyHorse,并启动小范围灰度测试。这款模型在Arena.ai权威榜单中,于“文生视频”“图生视频”和“视频编辑”三大核心项目中均跻身前列,成为全球AI视频领域不可忽视的中国力量。
与许多只能生成“炫技片段”的AI视频工具不同,HappyHorse的目标很明确:让普通人也能轻松做出接近专业影视水准的成片。它支持1080P高清输出,画面细腻、光影自然,无论是80年代港片的胶片质感、古装剧里的亭台楼阁,还是新中式风格的动漫场景,都能被精准还原。用户上传一张概念图,或输入一段详细描述,系统就能生成一段节奏流畅、镜头有设计感的15秒短片——平均耗时仅2到5分钟。

不只是“会画画”,更懂“讲故事”
很多AI视频工具在人物一致性上表现糟糕——主角的脸在三秒后突然变样,衣服颜色莫名其妙换了。HappyHorse在这方面下了大功夫:它能同时参考最多9张图片,稳定保持角色外貌、服装、道具甚至表情细节,哪怕你描述“穿红马甲的中年男人在雨中骑自行车,背景是老上海弄堂”,它也能把每个元素都扣准。
更关键的是,它能理解长指令。一段800词的剧情描述——比如“主角在暴雨夜找到失踪的信,回忆起十年前的约定,镜头从雨滴特写缓缓拉远至整条潮湿的街道”——它不仅能读懂,还能拆解成合理的分镜。这不是靠堆参数,而是真正学会了“怎么讲一个故事”。
声音不再靠后期,AI自动生成音画同步
过去,AI生成视频最头疼的问题之一是“没声音”——画面有了,配乐、对白、环境音还得自己找、自己剪。HappyHorse直接打通了这个断点。
它不仅能识别画面内容,还能自动生成匹配的环境音效:风吹树叶、雨滴敲窗、脚步回声,甚至角色说话时的口型都和语音同步。支持粤语、英语、法语等多种语言,意味着创作者不用再为“中文配音太假”或“英文对白卡顿”发愁。一位测试用户反馈:“我用它做了个5分钟的短片,全程没碰剪辑软件,最后导出的版本直接发到抖音,播放量比之前自己剪的还高。”
中文在线“次元神笔”接入,创作者工具箱再升级
就在HappyHorse开放测试的同时,国内数字内容平台中文在线宣布,旗下AI创作平台“次元神笔”已正式接入该模型。此前,“次元神笔”已整合Seedance2.0等多款主流模型,覆盖图文生成、角色设计、分镜脚本等环节。如今加入HappyHorse,意味着从“一句话”到“完整视频”,创作者可以在一个平台内完成全流程。
这对独立创作者、短视频团队、IP运营方来说意义重大。一个漫画作者,不用再找外包团队做动画,只需上传角色图+剧情梗概,就能生成带配音、有情绪的短视频预告片;一个网文作者,可以把章节片段一键转成视觉化短剧,快速测试市场反馈。工具的门槛降了,创意的边界反而被拉得更宽。
这不是噱头,是真实正在发生的创作变革
过去两年,AI视频工具层出不穷,但多数停留在“好玩”层面。HappyHorse不一样——它不追求炫技的粒子特效,而是解决真实创作中的痛点:效率低、成本高、专业门槛高。
目前灰度测试仅限部分创作者和机构参与,但已有影视工作室开始用它做前期概念片,短视频团队用它批量生成不同版本的广告素材。一位独立导演告诉媒体:“以前一个5分钟短片要两周,现在三天就能出初稿。剩下的时间,我用来打磨剧本,而不是调色和剪辑。”
当AI不再只是“替你干活”,而是“帮你思考”,创作的本质正在悄悄改变。HappyHorse的出现,或许不是终点,但它确实让普通人离“拍出一部像样的短片”更近了一步。