AI

Animate Anyone:从单张图片实现 AI 驱动的角色动画

阿里巴巴 HumanAIGC 的 Animate Anyone 能从单张参考图片实现一致且可控的图像到视频合成,用于角色动画。

Keeping this site alive takes effort — your support means everything.
無程式碼也能輕鬆打造專業LINE官方帳號!一鍵導入模板,讓AI助你行銷加分! 無程式碼也能輕鬆打造專業LINE官方帳號!一鍵導入模板,讓AI助你行銷加分!
Animate Anyone:从单张图片实现 AI 驱动的角色动画

Animate Anyone 是阿里巴巴 HumanAIGC 团队的一项研究项目,能将单张照片转变为人物行走、跳舞或执行任何姿势序列的完整动画视频——同时以非凡的保真度维持角色的身份、服装和外观。它代表了使用扩散模型进行图像到视频合成最令人印象深刻的应用之一。

Animate Anyone 解决的核心技术挑战是时间一致性与身份保留。先前从单张图片进行角色动画的方法存在闪烁、外观漂移以及丢失服装图案或面部特征等细节的问题。Animate Anyone 的创新是一种参考引导扩散架构,将输入图像的外观特征以多个尺度注入生成视频的每一帧。

该系统使用 ReferenceNet——共享权重的扩散主干精确复制——从参考图片提取详细的外观特征。这些特征通过交叉注意力层融合到去噪过程中,确保生成的每个帧中的角色看起来与原始角色一致。一个独立的姿势引导器模块整合来自 DensePose 或 OpenPose 的骨架关键点,以控制角色在整部视频中的身体定位。

仓库github.com/HumanAIGC/AnimateAnyone


Animate Anyone 的架构是如何运作的?

主要功能

功能描述质量
全身动画行走、跑步、跳舞、跳跃优秀
服装一致性图案、标志、纹理保留非常好
面部身份面部在帧之间保持可识别良好
手部细节复杂的手部姿势中等(已知限制)
长视频(10+ 秒)有姿势变化的长序列良好
多角色每次执行单一角色不适用
背景保留原始背景维持中等

如何试用

本地安装

git clone https://github.com/HumanAIGC/AnimateAnyone.git
cd AnimateAnyone
pip install -r requirements.txt
wget https://huggingface.co/HumanAIGC/AnimateAnyone/resolve/main/model.pth
python inference.py \
  --reference ./input/photo.jpg \
  --pose ./poses/dance_sequence.pkl \
  --output ./output/video.mp4

社区实现

项目描述链接
AnimateAnyone Replica提高效率的干净重新实现GitHub
Hugging Face 演示在线试用,无需安装HF Spaces

技术规格

规格详情
基础模型Stable Diffusion 1.5(微调)
最小 VRAM16 GB
建议 VRAM24 GB
最大分辨率768 x 768(基础)
支持的姿势源DensePose, OpenPose, 自定义骨架序列
许可证Apache-2.0
输出格式MP4 视频
推理时间30 秒 – 5 分钟(取决于 GPU)

常见问题

什么是 Animate Anyone? 阿里巴巴 HumanAIGC 的项目,从单张参考图片为人类角色制作动画,生成人物执行各种动作的视频,同时维持身份、服装和外观的一致性。

如何维持角色一致性? 通过 ReferenceNet 共享权重与扩散主干,从参考图片提取外观特征,并在多个尺度上通过交叉注意力注入去噪过程。

使用什么许可证? Apache-2.0 许可证,允许商业使用、修改和分发。

有社区实现吗? 是的,包括 AnimateAnyone Replica 项目和 Hugging Face Spaces。

需要什么硬件? 最小 16 GB VRAM GPU,建议 24 GB+。

扩展阅读

TAG
CATEGORIES