掘金 人工智能 13小时前
LivePortrait - 让静态照片“活”起来
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

LivePortrait 是一款由 KwaiVGI 团队开发的深度学习人像动画生成工具,能够将静态照片转化为生动逼真、表情丰富的动态人像。该工具支持驱动视频或动作模板,提供图像缝合与姿态重定向两种模式,并支持跨平台运行。用户可以通过简单的安装与配置,快速上手,生成高质量的动态人像,适用于虚拟主播、AI换脸等多个应用场景。LivePortrait 提供了命令行和 Gradio 图形界面两种操作方式,方便不同用户的需求。

💡 **核心功能:** LivePortrait 能够将静态图像转化为动态人像,支持高质量的动画生成和接近实时的推理速度,这得益于其高效的深度学习算法。

💻 **安装与配置:** 安装 LivePortrait 需要克隆仓库,创建 conda 环境,安装 PyTorch 及其依赖项,并下载预训练模型权重。对于 macOS 用户,需要注意 Apple Silicon 设备的特殊依赖安装。

🕹️ **使用方法:** 用户可以通过命令行或 Gradio 图形界面使用 LivePortrait。命令行模式下,可以通过指定输入图像和驱动视频来生成动画;Gradio 界面则提供了更友好的交互方式。

🎬 **驱动视频优化:** 为了获得最佳效果,建议用户将驱动视频裁剪为 1:1 的宽高比,专注于头部区域,并确保驱动视频的第一帧是中性表情的正面面部。

LivePortrait 是由 KwaiVGI 团队开发的一项前沿技术,旨在通过深度学习实现高效、逼真的人像动画生成。使得用户能够通过简单的驱动视频或动作模板,将静态图片“活化”为具有丰富表情和姿态变化的动态人像。

本文将详细介绍 LivePortrait 的功能特点、安装步骤、使用方法以及适用场景,并提供清晰的操作示例,帮助开发者快速上手这一强大工具。

一、LivePortrait 简介 📖

技术亮点

二、安装与配置指南 ⚙️

硬件要求:内存(RAM):至少 16GB显卡(GPU):NVIDIA GPU,支持 CUDA 计算能力 ≥ 6.0(如 RTX 30 系列或更高)

1. 克隆仓库并创建环境

git clone https://github.com/KwaiVGI/LivePortraitcd LivePortrait# 创建 conda 环境conda create -n LivePortrait python=3.10conda activate LivePortrait

根据你的 CUDA 版本安装 PyTorch:

# 示例(请根据实际版本选择)pip install torch==2.3.0 torchvision==0.18.0 torchaudio==2.3.0 --index-url https://download.pytorch.org/whl/cu118

然后安装依赖项:

pip install -r requirements.txt

Mac 用户注意:搭载 Apple Silicon 的设备需使用 requirements_macOS.txt 文件安装依赖。X-Pose 依赖项不支持 macOS,因此您可以跳过其安装。人类模式照常工作,但不支持动物模式

2. 下载预训练模型权重

推荐使用 HuggingFace CLI 下载预训练权重:

huggingface-cli download KwaiVGI/LivePortrait --local-dir pretrained_weights --exclude "*.git*" "README.md" "docs"

若无法访问 HuggingFace,可使用镜像网站 hf-mirror:

export HF_ENDPOINT=https://hf-mirror.comhuggingface-cli download KwaiVGI/LivePortrait --local-dir pretrained_weights ...

下载完成后确保目录结构如下:

pretrained_weights├── insightface│   └── models│       └── buffalo_l│           ├── 2d106det.onnx│           └── det_10g.onnx├── liveportrait│   ├── base_models│   │   ├── appearance_feature_extractor.pth│   │   ├── motion_extractor.pth│   │   ├── spade_generator.pth│   │   └── warping_module.pth│   ├── landmark.onnx│   └── retargeting_models│       └── stitching_retargeting_module.pth└── liveportrait_animals    ├── base_models    │   ├── appearance_feature_extractor.pth    │   ├── motion_extractor.pth    │   ├── spade_generator.pth    │   └── warping_module.pth    ├── retargeting_models    │   └── stitching_retargeting_module.pth    └── xpose.pth

三、使用教程 🚀

快速上手(人类模型)👤 👤

运行以下命令即可生成默认示例:

# 对于Linux和Windows用户python inference.py# 对于搭载Apple Silicon的macOS用户(Intel未测试)。注意:这可能比RTX 4090慢20倍PYTORCH_ENABLE_MPS_FALLBACK=1 python inference.py

输出结果保存在 animations/s6--d0_concat.mp4 中,包含原始输入、驱动视频和生成动画的拼接效果。

自定义输入参数:

或者,您可以通过指定-s-d参数来更改输入:

# 输入图像 + 驱动视频python inference.py -s assets/examples/source/s9.jpg -d assets/examples/driving/d0.mp4# 输入视频 + 驱动视频(动态编辑)python inference.py -s assets/examples/source/s13.mp4 -d assets/examples/driving/d0.mp4

查看所有参数选项:

python inference.py -h

快速上手(动物模型) 🐱🐶

动物模型仅支持 Linux 和 Windows 系统,并需要 NVIDIA GPU。

首先构建 X-Pose 所需的自定义算子:

cd src/utils/dependencies/XPose/models/UniPose/opspython setup.py build installcd - # 等同于 cd ../../../../../../../

然后运行动物模型推理:

python inference_animals.py -s assets/examples/source/s39.jpg -d assets/examples/driving/wink.pkl --driving_multiplier 1.75 --no_flag_stitching

如果脚本成功运行,您将得到一个名为 animations/s39--wink_concat.mp4 的输出 mp4 文件。

驱动视频自动裁剪 📢📢📢

使用您自己的驱动视频时,我们推荐: ⬇️

    将其裁剪为1:1的宽高比(例如,512x512或256x256像素),或通过--flag_crop_driving_video启用自动裁剪。专注于头部区域,类似于示例视频。最小化肩部运动。确保驱动视频的第一帧是具有中性表情的正面面部。

建议对驱动视频进行裁剪以提升效果:

python inference.py -s assets/examples/source/s9.jpg -d assets/examples/driving/d13.mp4 --flag_crop_driving_video

可选参数调整裁剪比例和偏移:

--scale_crop_driving_video 1.2--vy_ratio_crop_driving_video 0.5

Gradio 图形界面 🤗

LivePortrait 提供了基于 Gradio 的图形界面,方便非程序员用户使用:

# 对于Linux和Windows用户(以及搭载Intel的macOS??)python app.py # 人类模型模式# 对于搭载Apple Silicon的macOS用户,不支持Intel,这可能比RTX 4090慢20倍PYTORCH_ENABLE_MPS_FALLBACK=1 python app.py # 人类模型模式

支持参数:

# 启用torch.compile以进行更快的推理python app.py --flag_do_torch_compile

四、总结 ✅

LivePortrait 是一个极具潜力的人像动画生成项目,凭借其高效的推理架构、灵活的控制方式和良好的跨平台支持,非常适合用于虚拟主播、AI 换脸、数字人等领域。

无论是研究人员还是内容创作者,都可以通过简单几步快速部署并生成高质量的人像动画。如果你希望打造个性化的虚拟形象,或者探索 AI 驱动的视觉创作,LivePortrait 绝对值得一试!

📌 GitHub 地址github.com/KwaiVGI/Liv…
📌 HuggingFace 页面huggingface.co/KwaiVGI/Liv…

~要是觉得本篇文章写的不错,点赞、关注、转发就是对我最大的支持,谢谢大家。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

LivePortrait 人像动画 深度学习 AI
相关文章