最新消息:关注人工智能 AI赋能新媒体运营

爱诗科技发布PixVerse V6:AI视频步入物理常识新时代

科技资讯 admin 浏览

PixVerse V6 正式发布:AI视频,终于像真的一样了

3月31日,爱诗科技(AIsphere)在“闪电发布周”首日推出了PixVerse V6——一款不再像“AI画出来的”,而是让人忍不住多看两眼的视频生成模型。这不是一次小升级,而是一次从“能动”到“像活”的跃迁。

image.png

皮肤会呼吸,表情有情绪

过去AI生成的人物,皮肤像涂了一层塑料膜——光滑、统一、没生气。PixVerse V6 彻底改了这个毛病。现在,你能在人物脸上看到真实的毛孔、细微的皱纹,甚至汗珠在光线下微微反光。不是“修图式”的美化,而是像用RED或ARRI拍出来的那种真实感。

更关键的是,表情不再“摆拍”。一个微笑,不再是嘴角上扬的固定动画,而是从眼尾微皱、鼻翼轻动、下巴微收,层层递进的自然反应。在特写镜头里,你甚至能感受到角色的紧张、疲惫或喜悦——不是算法算出来的,是“演”出来的。

打斗不穿帮,衣服会飘,水会泼

AI视频最让人出戏的,往往是物理错乱:人跑着跑着腿穿过了椅子,风吹过衣服像在跳机械舞,水洒出来像一团凝固的果冻。

PixVerse V6 把这些问题基本解决了。角色在高速奔跑中,衣摆会因惯性向后拉扯;打斗时,拳头打到肩膀,身体会自然后仰;水从杯子里泼出,会按重力轨迹溅开,而不是“啪”地摊成一片。

这不是靠预设动画堆出来的,是模型真正“理解”了牛顿定律。你看到的不是“看起来像物理”,而是“真的在遵守物理”。

镜头切来切去,人还在

拍电影最怕什么?镜头一换,人变了,光变了,影子方向也变了。以前AI视频做多镜头叙事,就像拼图——每一块都好看,拼起来却对不上。

PixVerse V6 终于做到了“视觉一致性”:从远景切换到近景,人物的运动节奏没断,光源方向没变,阴影位置连一毫米都没错。你甚至能追踪一个角色从街角走到室内,光线从自然光变成暖黄灯,影子慢慢拉长、收缩——整个过程流畅得像用斯坦尼康跟拍了一整条街。

一句话生成“子弹时间”和FPV

你不需要懂什么“关键帧”、“运动曲线”或“相机参数”。

只要写:“一个女孩在雨中转身,子弹时间慢动作,第一人称视角从她身后掠过,雨水在空中悬停”,PixVerse V6 就能给你一段专业级镜头——不需要AE,不需要Motion,甚至不需要剪辑。

延时摄影、俯冲镜头、跟拍摩托车后座……这些曾经只有专业团队才能搞定的运镜,现在普通人用手机打字就能实现。

谁都能用,现在就能用

PixVerse V6 已经上线“拍我AI”平台——网页、App、API 三端同步开放。开发者可以集成进自己的应用,普通用户打开App就能生成视频,无需注册会员,也无需付费订阅才能体验核心功能。

有创作者已经用它做了短视频广告、独立短片、甚至AI动画短片投稿B站。一条用PixVerse V6生成的“街头艺人雨中弹吉他”视频,三天内播放量突破200万,评论区最火的一条是:“这真的是AI做的?我以为是哪个毕业生的毕设。”

这不是AI在画画,是AI在拍电影

PixVerse V6 的意义,不在于“画得更细”,而在于它开始理解世界运行的逻辑:光怎么照,人怎么动,物怎么撞,风怎么吹。

它不再是一个“图像补全工具”,而是一个能自主构建真实感世界的引擎。你给它一个想法,它不光给你画面,还给你一个可信的时空。

我们终于不再问:“这是AI做的吗?”

而是问:“这谁拍的?设备多少钱?”

AI视频的时代,从今天开始,真正进入了“真实世界”模式。