最新消息:关注人工智能 AI赋能新媒体运营

阿里通义实验室发布Wan2.7-Video视频生成模型

科技资讯 admin 浏览

Wan2.7-Video:让视频创作回归直觉,不再被技术卡住

你是不是也遇到过这样的情况:想改掉视频里一个多余的路人,结果花了半天时间在剪辑软件里逐帧抠图;或者拍完一条视频,突然想换个季节氛围,却只能重拍一整套素材?通义实验室最新推出的 Wan2.7-Video,不是又一个“AI生成视频”的噱头,而是一个真正为创作者设计的工具——它让你像用Word改文字一样,轻松修改视频里的每一个细节。

image.png

想改哪儿,点哪儿

过去AI生成视频,要么是“一键生成”但控制不了细节,要么是需要写一堆复杂提示词。Wan2.7-Video 不一样——你只需要用自然语言说:“把左边那个穿红衣服的人删掉”“把背景的夏天换成下雪的冬天”“让主角转个身,镜头拉远一点”,系统就能精准理解并执行。不需要懂任何专业术语,也不用学复杂的轨道和关键帧。

实测中,用户上传一段户外街拍视频,仅用一句话“把路灯换成暖光,地面加点积雪”,不到10秒,画面就完成了季节转换,光影和材质都自然得像原拍素材。这种“所见即所得”的修改体验,是目前市面上其他工具做不到的。

不用重拍,就能换剧情

拍完一条产品宣传视频,客户突然说:“主角说话太生硬,语气要更轻松点。”传统做法?重拍、重新剪辑、再调色——至少半天时间没了。Wan2.7-Video 让你直接选中角色,输入:“语气更自然,带点笑,语速慢一点”,系统会自动调整口型、表情和语调,连背景的微表情变化都同步更新。

更厉害的是镜头语言的调整。想把俯拍改成仰拍?想让镜头从人物背后推到正面?一句话的事。不需要重新布光、换机位,也不用找演员再来一遍。这对独立创作者、小团队和内容工作室来说,意味着省下大量时间与成本。

复刻爆款,也能做出新东西

你有没有收藏过几个特别有感觉的短视频?动作流畅、转场丝滑、节奏刚刚好?Wan2.7-Video 支持“动作模板复用”——你可以把一段你喜欢的舞蹈、手势、运镜保存为模板,下次直接套用到新角色、新场景里。比如你用这个模板,把一个街舞片段套在宠物狗身上,生成一条搞笑短视频,完全不用重新拍摄。

还能“延续剧情”。你拍了一条30秒的晨跑故事,想接着讲“他跑进咖啡馆”的下一幕?只需输入:“继续刚才的节奏,主角跑进一家有绿植的咖啡馆,阳光从窗户照进来”,系统会自动延续人物动线、光影逻辑和环境细节,生成连贯的后续镜头,不突兀、不穿帮。

不只是AI,是你的创作搭档

Wan2.7-Video 没有花哨的“AI生成”标签,也没有一堆看不懂的参数。它不追求“一秒生成大片”,而是专注解决创作者每天真实遇到的痛点:改不动、改太慢、改不好。它不取代你,而是让你的创意更自由。

目前,该工具已开放给部分创作者内测,支持导入MP4、MOV、PNG序列等主流格式,导出最高支持4K 30fps,兼容主流剪辑软件(Premiere、Final Cut、DaVinci Resolve)的项目文件导入导出。未来几周内将逐步开放公测,注册即可优先体验。

如果你厌倦了“AI生成”那套模板化内容,想真正掌控视频的每一个帧——Wan2.7-Video,可能是你等了很久的那个工具。