开发学院

您的位置:首页>资讯>正文

资讯

阿里推出 Wan2.7-Video 模型 主打创作全流程可控

开发学院2026-04-08 19:01:40
阿里巴巴-W 于周二正式发布全新升级的 Wan2.7-Video 视频生成模型,此次更新的核心亮点在于聚焦创作全链路的支持。该模型不仅支持文本、图像、视频及音频的全模态输入,更覆盖了从内容生成、编辑、复刻到重塑、驱动及续写的完整流程。官方表示,新模型在可控性和全能性上均有显著提升,旨在为用户提供更像导演和演员般的创作体验。

  阿里巴巴-W 于周二正式发布全新升级的 Wan2.7-Video 视频生成模型,此次更新的核心亮点在于聚焦创作全链路的支持。该模型不仅支持文本、图像、视频及音频的全模态输入,更覆盖了从内容生成、编辑、复刻到重塑、驱动及续写的完整流程。官方表示,新模型在可控性和全能性上均有显著提升,旨在为用户提供更像导演和演员般的创作体验。


  在具体功能层面,用户可以通过指令对视频画面进行局部调整,编辑后的区域在光影与材质上能实现与原视频的无缝融合。系统还支持通过指令增删元素或替换物体,并能根据参考图像内容进行精准添加。风格变换是该模型的另一个强项,它能够在保持人物动作不变的情况下,将背景季节从夏日一键变为深秋,或者瞬间转换为羊毛毡等艺术风格,实现视觉上的跨维度切换。此外,模型还具备视频质量提升、视觉理解任务处理及拍摄方式调整的能力,以满足多样化的编辑需求。


  此次发布的 Wan2.7-Video 标志着阿里巴巴在人工智能视频生成领域的又一重要布局。面对 OpenAI 的 Sora、快手可灵以及字节跳动即梦等国内外竞品的激烈竞争,阿里选择以创作全链路作为差异化切入点。相比于单纯的生成视频,新版本试图解决长期以来 AI 视频生成长控性差和编辑能力弱等痛点,将自身定位为全流程的创作伙伴而非单一工具。