SkyReels-A2开源革命:解锁商用级‘元素到视频’的无限创意

今天跟大家分享一个AI视频生成工具 —— SkyReels-A2,SkyReels-A2 是一个支持多图混合驱动、无需文本、自动生成短视频的 AI 工具,适合创作者快速做出风格鲜明的视频内容。
什么是SkyReels-A2
SkyReels-A2 是由 SkyworkAI 推出的一个基于扩散模型(Diffusion Model)的视频生成工具,其最大特色是支持 多张参考图像合成视频,用户可以通过提供人物图、背景图、动作图、风格图等多种素材,快速生成具有高度风格一致性和视觉连贯性的短视频。
✅ 核心特性:
-
多图参考融合(Compose Anything)
支持 2~5 张参考图像共同指导生成一个视频,系统会根据每张图的内容提取:- 主体信息(如人物)
- 场景信息(如建筑、自然环境)
- 风格信息(如色调、光影、画风)
- 动作参考(如人物行走、跳跃等)
-
短视频生成
当前支持生成 3 秒左右的视频(后续版本可能扩展),画面连贯、动作自然。 -
无须文本 Prompt
与常见的视频生成工具不同,SkyReels-A2 主要以图像驱动创作,无需文字描述,降低创作门槛。 -
使用 Video Diffusion Transformers 技术
基于扩散模型与视频专用 Transformer 架构,可精准理解图像间的关联并平滑生成过渡帧。
模型下载(Models)与规格
SkyReels-A2提供多种模型版本,满足从预览测试到商用部署的多样化需求:
模型名称 | 下载链接 | 视频尺寸 |
---|---|---|
A2-Wan2.1-14B-Preview | Huggingface 🤗 | 约 81 帧 × 480 高 × 832 宽 |
A2-Wan2.1-14B | 即将发布 | 约 81 帧 × 480 高 × 832 宽 |
A2-Wan2.1-14B-Infinity | 即将发布 | 无限帧 × 720 高 × 1080 宽 |
当前已发布的预览版模型(A2-Wan2.1-14B-Preview)支持生成约3秒的视频,适用于快速验证创意。即将推出的Infinity版本将支持更高分辨率和无限长度的视频生成,适合长篇叙事和专业影视制作。
项目信息
- GitHub 地址:https://github.com/SkyworkAI/SkyReels-A2
- 模型部署:支持本地部署(需 Python 环境 + 显卡)
- 开源协议:需查看 GitHub 中 LICENSE 文件,一般允许研究和非商业用途
如何开始使用SkyReels-A2
线上创作
如果你本地没有条件部署SkyReels-A2 ,可以在它的官网上进行创造,地址:https://www.skyreels.ai/home/tools/to-video?refer=navbar
准备好一些参考素材:
- 主要对象:如人物、动物或物体
- 背景场景:如自然景观或城市风光
- 风格参考:如光线、色调或艺术风格
- 动作参考(如走路、挥手等)
SkyReels-A2 能区分这些不同类型的参考,并进行智能组合。
本地部署
SkyReels-A2的开源设计极大降低了使用门槛,以下是快速上手的步骤:
- 环境配置
克隆代码库:
git clone https://github.com/SkyworkAI/SkyReels-A2.git
cd SkyReels-A2
创建并激活虚拟环境:
conda create -n skyreels-a2 python=3.10
conda activate skyreels-a2
pip install -r requirements.txt
- 下载预训练权重
通过HuggingFace CLI获取模型:
pip install -U "huggingface_hub[cli]"
huggingface-cli download Skywork/SkyReels-A2 --local-dir local_path --exclude "*.git*" "README.md" "docs"
- 运行推理
运行命令行推理脚本:
python infer.py
或启动Gradio图形界面:
python app.py
Gradio界面允许用户直观上传多个参考素材(如人物、背景、风格和动作),并通过滑块调整每个参考的影响权重。生成的MP4文件包含驱动视频、输入素材和最终结果,便于对比和优化。
对于需要更高效率的用户,SkyReels-A2支持多GPU推理:
python infer_MGPU.py
硬件建议:推荐使用RTX 4090等高性能NVIDIA显卡,单卡可在80秒内生成544p视频,低显存优化也使其适配多种硬件环境。
在comfyUI中使用SkyReels-A2
-
确保你已经安装了 ComfyUI。
-
将本插件克隆到 ComfyUI 的
custom_nodes
目录下:
bash
cd ComfyUI/custom_nodes
git clone https://github.com/Yuan-ManX/ComfyUI-SkyReels-A2.git
- 安装依赖项:
bash
cd ComfyUI-SkyReels-A2
pip install -r requirements.txt
githu地址:https://github.com/Yuan-ManX/ComfyUI-SkyReels-A2
应用场景
SkyReels-A2的多参考生成能力使其在多个领域展现出商用潜力:
- 虚拟电商:结合主播形象、商品图片和动作参考,快速生成动态推荐视频,显著降低广告制作成本和周期。例如,输入一张口红图片和主播照片,即可生成试色演示视频。
- 影视创作:支持多角色、复杂场景的组合,生成电影级画面,如科幻片中的飞船追逐或剧情片中的情感对话。光影效果和构图达到专业水准,适合短片预览或概念验证。
- 音乐多媒体:根据音乐节奏和背景元素生成视觉化视频片段,为独立音乐人提供低成本MV创作工具。例如,结合歌词意境和风景参考,生成与音乐情绪匹配的动态画面。
- 教育与营销:通过组合历史场景、人物照片和动作参考,制作生动的内容。例如,我曾为一个教育项目生成“历史人物对话”视频,结合教科书插图和老电影风格,效果引人入胜。
- 虚拟现实与元宇宙:通过实时生成动态环境,为虚拟场景提供沉浸式内容,结合动作捕捉技术可实现直播互动视频。
常见问题解答
Q:最多支持几张参考图?
建议使用 3-5 张,太多可能会造成风格混乱。
Q:什么类型的图像组合效果最好?
主体图 + 场景图 + 风格图 是最佳基础组合。
Q:视频最长支持多长时间?
当前版本生成的视频时长约为 3 秒,后续版本将支持更长时间。
Q:可以商用吗?
请查看 GitHub 项目中的最新授权协议,一般允许商用,但使用他人素材需注意版权。
结语
SkyReels-A2以其创新的双分支架构和“元素到视频”能力,为AI视频生成树立了商用级标杆。无论是个人创作者希望快速实现创意,还是企业寻求高效的内容生产方案,SkyReels-A2都提供了强大的支持。其开源生态和持续优化的路线图,进一步保障了技术的普惠性和未来潜力。