三步部署阿里通义万相视频生成大模型【万相开源、喜大普奔】

        阿里巴巴于2025年2月25日晚宣布全面开源其视频生成大模型通义万相2.1(Wan),这一举措标志着中国AI开源生态的又一重大突破。

        通义万相的开源不仅加速了AI技术在视频创作、文化传播等领域的落地,也引发了关于AI生成内容伦理与质量的讨论。随着技术迭代,其应用可能扩展至实时内容生成、个性化创作等方向,进一步推动人机协作的边界。

        开发者可通过GitHub、Hugging Face、魔搭社区下载模型,体验这一“最懂中国风”的视频生成技术

本次通过github下载安装。

安装

项目地址:

https://github.com/Wan-Video/Wan2.1

1.克隆仓库:

git clone https://github.com/Wan-Video/Wan2.1.git
cd Wan2.1

2.安装依赖项:

# Ensure torch >= 2.4.0
pip install -r requirements.txt

3.使用 huggingface-cli 下载模型:

pip install "huggingface_hub[cli]"
huggingface-cli download Wan-AI/Wan2.1-T2V-14B --local-dir ./Wan2.1-T2V

你可能感兴趣的:(机器学习,语言模型,计算机视觉)