导言
Wan 2.6 提高了短片 AI 视频的标准,但创作者仍然达到了熟悉的极限:镜头中的角色不一致,动作给人带来轻微 “AI” 的感觉,以及需要进行精确编辑时需要过多重生的工作流程。
Wan 2.7 计划在三月内推出,其定位是 全面升级关键 AI 视频生成功能。与 Wan 2.6 相比,Wan 2.7 旨在提供:
- 更好 AI 视频质量 在 1080p
- 已改进 音频生成 和整体音频真实感
- 更自然的动作和更强的风格化外观
- 增强了角色和场景的一致性
- 语音参考和一致的角色生成
- 新的编辑和控制工具,例如基于指令的编辑、视频再现、开始和结束帧控制以及网格图像输入

本预览详细介绍了创作者对 Wan 2.7 的期望、这些升级为何重要,以及不同的团队如何使用它来提高速度和可靠性 AI 视频创作。
创作者可以期待什么
1) 更好的 1080p 图像质量和整体视觉保真度
Wan 2.7 预计将带来明显的进步 图像质量 和视觉真实感,尤其是 1080p 输出。这通常意味着:
- 更清晰的细节和更简洁的纹理
- 更稳定的照明和更少的画面伪影
- 提高快动作场景中的拍摄对象清晰度
- 更高质量的 “第一关” 世代,更少的重启次数
对于创作者来说,这改善了从社交广告到电影短片的所有方面,因为在你开始后期制作之前,视频看起来就更加精致了。
2) 改进的音频生成和更逼真的声音
对于现代短片视频,音频不再是可选的。Wan 2.7 预计将显著升级其音频功能:
- 更清晰的声音输出
- 改善场景情绪和配乐之间的同步
- 更自然的环境音频和动作声音
- 更强的整体音频质量
这支持那些希望更快 “发布就绪” 片段的创作者,无需每代都依赖外部音频编辑。
3) 更自然的运动和更高质量的视频动态
Wan 2.7 旨在让动作感觉不那么合成,在物理上更可信:
- 更流畅的身体动作和更自然的手势时机
- 改善了摄像机动作和节奏
- 在动作和多主题场景中表现更好
- 帧与帧之间的时间稳定性更强
对于 AI 视频生成,动作质量是 “炫酷演示” 和 “可用内容” 之间最大的明显区别之一。这是最重要的升级之一。
4) 更强的风格和更好的风格一致性
许多创作者依赖风格化的外观:动漫、电影电影、复古广告、插画或品牌特定的美学。Wan 2.7 预计将通过两种方式增强风格化:
- 更可控的艺术风格
- 更好的一致性,因此画面和镜头的风格保持稳定
这对于制作系列内容、广告系列视觉效果或需要一致外观的品牌视频的人来说都很重要。
5) 增强一致性和角色稳定性
Wan 2.7 预计总体上会有所改善 一致性,包括更稳定的:
- 镜头中的角色和面孔
- 服装和配饰
- 场景元素和背景
- 颜色分级和照明连续性
它还支持 稳定的角色生成,这对于经常出现的代言人、虚拟影响者和多视频故事情节至关重要。
6) 语音参考和更可控的字符输出
标题升级之一是 语音参考 支持。
这意味着创作者可以提供语音参考并生成更符合叙事或角色语音目标语音风格的内容。再加上持续的角色生成,这将解锁:
- 多个视频中可重复的角色表演
- 剧集内容的连续性更好
- 更具可扩展性的创作者和品牌故事讲述
7) 基于指令的编辑和视频娱乐
Wan 2.7 预计将延续到一代以后 基于指令的编辑 和 视频娱乐,这对于实际的工作流程来说意义重大:
- 通过描述要更改的内容来编辑现有片段
- 重新创建或重新解读质量更高或风格不同的视频
- 对强劲的片段进行迭代,而不是从头开始重新生成
这是大多数专业的人工智能视频工作流程正在朝着的方向发展:减少即时抽奖,加强可控迭代。
8) 开始和结束帧控制
另一项重大升级是 开始和结束帧控制,这对以下方面特别有价值:
- 故事板和镜头规划
- 将片段与特定的开场帧和闭幕帧相匹配
- 创建无缝过渡和循环
- 控制多张镜头之间的连续性
此功能可以显著减少 “再试一次” 以获得想要的精确运动弧线所花费的时间。
9) 多图像到视频的网格图像输入
Wan 2.7 预计将支持从中生成视频 网格输入,意思是 多图像输入 系统(同时有多个参考框架)。这对于以下方面非常有用:
- 为角色或产品提供多个角度
- 使用多个关键帧定义场景进度
- 提高身份和布局一致性
对于图像到视频的工作流程,网格输入是无需复杂管道即可增强控制的最实用的方法之一。
10) 动态视频长度 2 到 15 秒
Wan 2.7 支持动态持续时间 2 到 15 秒,它符合现实世界中常见的需求:
- 挂钩、过渡和截断时间为 2 到 6 秒
- 8 到 15 秒用于简短的叙事情节、广告和产品故事
该范围使模型保持灵活性,既适合高容量性能创作,也适合更具电影感的短篇故事讲述。
11) 真实的人体图像输入和最多 5 个参考视频
Wan 2.7 预计将支持:
- 真实的人体图像输入
- 最多 5 个参考视频 世代相传
这为以下方面创建了强大的参考驱动工作流程:
- 动作和相机风格指导
- 多张镜头的场景节奏一致
- 角色和环境的连续性更好
这也表明 Wan 2.7 是为更高级的、面向生产的控制而构建的,而不是纯粹的文本驱动生成。
Wan 2.7 的用例
1) 绩效营销和社交广告
对于营销人员来说,Wan 2.7 可以改进:
- 一致的角色和品牌代言人
- 更快的创意迭代,更少的重放次数
- 高品质 1080p 输出已为 TikTok、Reels、Shorts 做好准备
- 更强的音频可提高广告的可读性和参与度
2 到 15 秒的范围非常适合挂钩和完整的广告叙事。
2) 剧集创作者内容和系列故事
对于制作重复内容的创作者:
- 一致的字符生成支持系列连续性
- 语音参考支持可重复的旁白或角色语音
- 开始和结束帧控制有助于保持剧集之间的场景连续性
- 风格升级有助于保持标志性外观
Wan 2.7 非常适合大规模讲述短集故事。
3) 视频编辑和重新利用现有素材
基于指令的编辑和视频娱乐解锁:
- 更快地针对不同的受众和平台进行再利用
- 无需重拍的强力片段的风格变化
- 以更好的动作和质量升级旧的 AI 视频
- 无需完全再生即可快速校正
对于机构和内容团队来说,这是一项重大的工作流程改进。
4) 产品和品牌视觉宣传
对于产品内容:
- 网格图像输入有助于保持产品准确性
- 增强的一致性可减少 “产品漂移”
- 1080p 输出提高了电子商务和活动质量
- 更好的风格支持不同的竞选美学
Wan 2.7 成为讲述产品故事和宣传视觉效果的实用工具。
5) 音乐驱动和语音主导的短视频
改进了音频和语音参考:
- 创建以语音为主导的讲解员和迷你故事
- 更快地生成与音乐对齐的片段
- 减少同步外部音轨所花费的时间
这使得 Wan 2.7 更适合在音频是创意挂钩一部分的平台上播放声音。
结论
Wan 2.7 计划在三月内推出,这将是向前迈出的重要一步 AI 视频生成。凭借更好的 1080p 图像质量、更好的音频、更自然的动作、更强的风格化、增强的一致性、语音参考、多参考视频控制、基于指令的编辑、起始和结束帧控制以及网格图像到视频的生成,它针对的是创作者当今面临的最大现实世界瓶颈。
如果你正在制作短篇内容、营销创意或故事驱动的人工智能视频,Wan 2.7 值得密切关注。 关注 Wan 2.7 更新,准备在 Wan 2.7 发布后立即测试新的 1080p AI 视频模型、语音参考和多图像到视频控件。

