小贴士:按下Ctrl+D 或 ⌘+D,一键收藏本站,方便下次快速访问!

SkyReels-A2开源革命:解锁商用级‘元素到视频’的无限创意

2025年04月10日
SkyReels-A2开源革命:解锁商用级‘元素到视频’的无限创意

今天跟大家分享一个AI视频生成工具 —— SkyReels-A2,SkyReels-A2 是一个支持多图混合驱动、无需文本、自动生成短视频的 AI 工具,适合创作者快速做出风格鲜明的视频内容。

什么是SkyReels-A2

SkyReels-A2 是由 SkyworkAI 推出的一个基于扩散模型(Diffusion Model)的视频生成工具,其最大特色是支持 多张参考图像合成视频,用户可以通过提供人物图、背景图、动作图、风格图等多种素材,快速生成具有高度风格一致性和视觉连贯性的短视频。

✅ 核心特性:

  1. 多图参考融合(Compose Anything)
    支持 2~5 张参考图像共同指导生成一个视频,系统会根据每张图的内容提取:

    • 主体信息(如人物)
    • 场景信息(如建筑、自然环境)
    • 风格信息(如色调、光影、画风)
    • 动作参考(如人物行走、跳跃等)
  2. 短视频生成
    当前支持生成 3 秒左右的视频(后续版本可能扩展),画面连贯、动作自然。

  3. 无须文本 Prompt
    与常见的视频生成工具不同,SkyReels-A2 主要以图像驱动创作,无需文字描述,降低创作门槛。

  4. 使用 Video Diffusion Transformers 技术
    基于扩散模型与视频专用 Transformer 架构,可精准理解图像间的关联并平滑生成过渡帧。


模型下载(Models)与规格

SkyReels-A2提供多种模型版本,满足从预览测试到商用部署的多样化需求:

模型名称 下载链接 视频尺寸
A2-Wan2.1-14B-Preview Huggingface 🤗 约 81 帧 × 480 高 × 832 宽
A2-Wan2.1-14B 即将发布 约 81 帧 × 480 高 × 832 宽
A2-Wan2.1-14B-Infinity 即将发布 无限帧 × 720 高 × 1080 宽

当前已发布的预览版模型(A2-Wan2.1-14B-Preview)支持生成约3秒的视频,适用于快速验证创意。即将推出的Infinity版本将支持更高分辨率和无限长度的视频生成,适合长篇叙事和专业影视制作。


项目信息

  • GitHub 地址:https://github.com/SkyworkAI/SkyReels-A2
  • 模型部署:支持本地部署(需 Python 环境 + 显卡)
  • 开源协议:需查看 GitHub 中 LICENSE 文件,一般允许研究和非商业用途

如何开始使用SkyReels-A2

线上创作

如果你本地没有条件部署SkyReels-A2 ,可以在它的官网上进行创造,地址:https://www.skyreels.ai/home/tools/to-video?refer=navbar
Uploaded Image

准备好一些参考素材:

  • 主要对象:如人物、动物或物体
  • 背景场景:如自然景观或城市风光
  • 风格参考:如光线、色调或艺术风格
  • 动作参考(如走路、挥手等)
    SkyReels-A2 能区分这些不同类型的参考,并进行智能组合。

本地部署

SkyReels-A2的开源设计极大降低了使用门槛,以下是快速上手的步骤:

  1. 环境配置
    克隆代码库:
复制代码
git clone https://github.com/SkyworkAI/SkyReels-A2.git
cd SkyReels-A2

创建并激活虚拟环境:

复制代码
conda create -n skyreels-a2 python=3.10
conda activate skyreels-a2
pip install -r requirements.txt
  1. 下载预训练权重
    通过HuggingFace CLI获取模型:
复制代码
pip install -U "huggingface_hub[cli]"
huggingface-cli download Skywork/SkyReels-A2 --local-dir local_path --exclude "*.git*" "README.md" "docs"
  1. 运行推理
    运行命令行推理脚本:
复制代码
python infer.py

或启动Gradio图形界面:

复制代码
python app.py

Gradio界面允许用户直观上传多个参考素材(如人物、背景、风格和动作),并通过滑块调整每个参考的影响权重。生成的MP4文件包含驱动视频、输入素材和最终结果,便于对比和优化。

对于需要更高效率的用户,SkyReels-A2支持多GPU推理:

复制代码
python infer_MGPU.py

硬件建议:推荐使用RTX 4090等高性能NVIDIA显卡,单卡可在80秒内生成544p视频,低显存优化也使其适配多种硬件环境。

在comfyUI中使用SkyReels-A2

  1. 确保你已经安装了 ComfyUI

  2. 将本插件克隆到 ComfyUI 的 custom_nodes 目录下

bash 复制代码
cd ComfyUI/custom_nodes
git clone https://github.com/Yuan-ManX/ComfyUI-SkyReels-A2.git
  1. 安装依赖项
bash 复制代码
cd ComfyUI-SkyReels-A2
pip install -r requirements.txt

githu地址:https://github.com/Yuan-ManX/ComfyUI-SkyReels-A2


应用场景

SkyReels-A2的多参考生成能力使其在多个领域展现出商用潜力:

  • 虚拟电商:结合主播形象、商品图片和动作参考,快速生成动态推荐视频,显著降低广告制作成本和周期。例如,输入一张口红图片和主播照片,即可生成试色演示视频。
  • 影视创作:支持多角色、复杂场景的组合,生成电影级画面,如科幻片中的飞船追逐或剧情片中的情感对话。光影效果和构图达到专业水准,适合短片预览或概念验证。
  • 音乐多媒体:根据音乐节奏和背景元素生成视觉化视频片段,为独立音乐人提供低成本MV创作工具。例如,结合歌词意境和风景参考,生成与音乐情绪匹配的动态画面。
  • 教育与营销:通过组合历史场景、人物照片和动作参考,制作生动的内容。例如,我曾为一个教育项目生成“历史人物对话”视频,结合教科书插图和老电影风格,效果引人入胜。
  • 虚拟现实与元宇宙:通过实时生成动态环境,为虚拟场景提供沉浸式内容,结合动作捕捉技术可实现直播互动视频。

常见问题解答

Q:最多支持几张参考图?
建议使用 3-5 张,太多可能会造成风格混乱。

Q:什么类型的图像组合效果最好?
主体图 + 场景图 + 风格图 是最佳基础组合。

Q:视频最长支持多长时间?
当前版本生成的视频时长约为 3 秒,后续版本将支持更长时间。

Q:可以商用吗?
请查看 GitHub 项目中的最新授权协议,一般允许商用,但使用他人素材需注意版权。

结语

SkyReels-A2以其创新的双分支架构和“元素到视频”能力,为AI视频生成树立了商用级标杆。无论是个人创作者希望快速实现创意,还是企业寻求高效的内容生产方案,SkyReels-A2都提供了强大的支持。其开源生态和持续优化的路线图,进一步保障了技术的普惠性和未来潜力。