阿里发布 Wan2.7-Video 视频生成模型:“能导擅演”,聚焦创作全链路

背景

近年来,随着AIGC(人工智能生成内容)技术的迅猛发展,视频生成领域逐渐成为科技巨头和初创企业争相布局的热点。阿里巴巴作为AI技术的重要推动者之一,持续深耕大模型与生成式内容技术,近日正式推出全新视频生成模型Wan2.7-Video。这一模型不仅具备强大的视频生成能力,还通过全链路创作支持,进一步拓展了视频生成技术的适用场景和商业化潜力。

模型详情

Wan2.7-Video的核心亮点在于其全模态输入支持,包括文本、图像、视频和音频。这意味着用户可以通过多种媒介形式进行输入提示,从而更精准地控制生成内容的风格、结构和节奏。具体来说,该模型在以下几个方面表现突出:

  • 画面结构控制:通过输入文本或图像,用户可以指定画面构图、主体位置和镜头语言,实现类似专业导演级别的画面调度。
  • 剧情走向把控:用户不仅可生成视频内容,还能通过引导式输入影响剧情的发展,使得视频生成更加符合叙事需求。
  • 局部细节与动态变化优化:在生成过程中,用户可以对特定场景的细节进行精细化调整,例如人物表情、服装变化或背景环境,确保视频内容更贴近预期。

阿里发布 Wan2.7-Video 视频生成模型:“能导擅演”,聚焦创作全链路

此外,Wan2.7-Video还覆盖了从内容生成到后期编辑的“创作全链路”,具体包括以下流程:

  1. 生成:基于文本或图像快速生成视频初稿。
  2. 编辑:对生成内容进行局部修改或风格调整。
  3. 复刻:精确还原已有视频的风格或动作,便于二次创作。
  4. 重塑:重新构造视频结构,如剪辑节奏或镜头切换。
  5. 驱动:通过音频或动作数据驱动虚拟角色进行表演。
  6. 续写:在已有视频基础上延续内容,保持连贯性。
  7. 参考:引入参考视频或图片以确保风格一致性。

技术与应用场景

Wan2.7-Video的技术架构基于深度学习和多模态融合,使其在视频生成质量与可控性之间取得良好平衡。这种能力特别适合用于短视频平台、影视制作、广告创意、教育动画等领域。例如,在短视频内容创作中,用户可以通过简单文本描述快速生成带有特定风格的视频内容,大幅降低制作门槛。

此外,该模型还可能用于虚拟主播、AI演员驱动、游戏动画生成等场景,通过音频驱动表情和动作,使得角色更加生动自然。企业用户也可借助该技术进行快速内容迭代和个性化内容生产,提高创作效率和用户体验。

行业影响

Wan2.7-Video的推出标志着阿里在视频生成大模型领域的进一步深化布局。相比于传统视频制作方式,该模型能显著缩短内容创作周期,降低人力与时间成本,提升内容生产效率。在AIGC浪潮下,这种“能导擅演”的能力或将重塑内容创作流程,使AI真正成为创作者的得力助手。

同时,随着国内外视频生成技术的持续演进,市场竞争也愈发激烈。例如,字节跳动的Seedance 2.0已在美国市场开放使用,与Wan2.7-Video形成直接竞争关系。然而,阿里模型在“创作全链路”上的覆盖能力,使其在可控性和功能性方面更具优势。

未来展望

阿里表示,Wan2.7-Video的发布仅是其视频生成技术演进的一个阶段性成果。公司未来计划推出更多配套工具和API接口,进一步完善视频生成生态。同时,阿里也强调AI生成内容的合规性与版权问题,承诺加强在内容审核、数据安全和用户隐私保护方面的投入。

这一模型的广泛应用有望推动内容创作进入“AI+人工”协作的新时代,不仅服务于专业内容生产者,也将为普通用户提供更多创意表达的可能性。