阿里千问 App 上线万相 2.7 视频生成模型,几句话修视频
背景:视频生成与编辑技术的发展趋势
近年来,人工智能在内容生成领域取得重大突破,尤其是图像和视频生成技术快速演进。阿里通义实验室持续迭代其“万相”系列模型,从2.6版本的角色扮演与音画同步功能,到2.7版本的视频编辑和续写能力,展现了对AIGC(人工智能生成内容)技术应用的深度探索。此次千问 App 集成万相 2.7 模型,标志着视频编辑正从专业工具走向大众化、智能化操作。
详情:万相 2.7 的核心功能
- 视频画面修改:用户只需输入几句话,便可对视频内容进行修改,例如添加人物、更换服饰、调整背景环境等,生成效果在光影和细节上自然融合。
- 风格一键切换:支持用户在不同视觉风格之间快速切换,为视频赋予多样化外观,提升创作自由度。
- 视频续写能力:可将2秒视频延长至最多15秒,通过上传原始视频片段,模型智能生成后续内容,实现自然延展。
- 统一图像模型支持:图像生成与编辑统一模型 Wan2.7-image 同步上线,与视频功能协同提升整体内容创作的一致性与效率。
影响:降低视频创作门槛,推动内容生产革新
万相 2.7 模型的上线,显著降低了视频创作的技术门槛。传统视频编辑需要复杂的软件操作和时间投入,而千问 App 让普通用户也能通过自然语言指令轻松完成视频修改与续写。这一变革不仅提升了内容创作效率,也为短视频、社交媒体、广告创意等领域带来新的可能性,加速AI在内容产业中的普及与应用。
展望:万相模型的未来潜力
随着万相系列从2.6到2.7的迭代,阿里在多模态生成能力上的布局逐渐清晰。未来,这类模型有望进一步提升视频生成的时长与质量,支持更复杂的场景变换与角色互动。同时,结合阿里生态中如电商、文娱等场景,万相 2.7 或将在更多实际业务中落地,推动AI生成内容(AIGC)向专业化与商业化迈进。