解决H100显卡搭建facefusion无法使用GPU的问题

一台H100显卡的服务器,同事们迁移facefusion到H100服务器上,发现无法安装。

系统:Win11

H100任务管理器

驱动安装:12.4~13均已尝试

无法安装启动,了解后情况后,根据经验应该不是大问题,可以解决。

最后根据一点点的扣各类情况,解决了安装系统的问题。

最后可能是驱动的问题以及驱动之间兼容的问题导致,之前采用的是312版本的py(312也可以搭建安装跑起来),文章用311版本的来操作。


conda activate facefusion_py311

activate facefusion_py311

pip install -r requirements.txt

一下均在环境下执行。

然后安装相关的组件。

思路可以围绕以下几点。 这里没安装更高的版本。

pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu126 

安装后命令行进入python

import torch
print(torch.__version__)
print(torch.version.cuda)
print(torch.cuda.is_available())

查看返回结果。如有版本及True

然后驱动需要重新安装一下。将原有的显卡驱动卸载,重新安装 CUDA Toolkit  地址可以参考我上一篇文章 ,安装cuda toolkit这一步很重要,不用安装太高版本。最后会提示是否安装成功。

记得把CUDA Toolkit 的安装路径等添加到环境变量内:(根据自己实际路径情况添加)

C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.6\
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.6\bin
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.6\libnvvp
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.6\

检查onn版本 ,一点要选择onnxruntime-gpu及对应版本,否则会出现下面这两种情况,都是跟兼容有关。

pip show onnxruntime-gpu查看版本,如果不是gpu的也不行

2025-10-11 13:59:20.6235293 [E:onnxruntime:Default, provider_bridge_ort.cc:2251 onnxruntime::TryGetProviderInfo_CUDA] E:\_work\1\s\onnxruntime\core\session\provider_bridge_ort.cc:1844 onnxruntime::ProviderLibrary::Get [ONNXRuntimeError] : 1 : FAIL : Error loading "C:\ProgramData\Anaconda3\envs\facefusion\Lib\site-packages\onnxruntime\capi\onnxruntime_provideN0Rc歔剉!jWW0")ich depends on "cudnn64_9.dll" which is missing. (Error 126: "~b

或者下面

2025-10-11 15:24:02.8528913 [E:onnxruntime:Default, provider_bridge_ort.cc:1992 onnxruntime::TryGetProviderInfo_CUDA] D:\a\_work\1\s\onnxruntime\core\session\provider_bridge_ort.cc:1637 onnxruntime::ProviderLibrary::Get [ONNXRuntimeError] : 1 : FAIL : LoadLibrary failed with error 126 "" when trying to load "C:\ProgramData\Anaconda3\envs\facefusion\Lib\site-packages\onnxruntime\capi\onnxruntime_providers_cuda.dll"

卸载重新安装对应的版本

pip uninstall onnxruntime-gpu -y
pip install onnxruntime-gpu==1.19.2 --index-url https://download.pytorch.org/whl/cu129

可以自己尝试。

pip install onnxruntime-gpu==1.19.0 --index-url https://download.pytorch.org/whl/cu126

安装后查看,命令行进入python

import onnxruntime as ort
print(ort.get_device())

返回GPU即可

然后可以参考https://docs.facefusion.io/installation/accelerator/windows#cuda

安装自己合适的版本:

conda install nvidia/label/cuda-12.9.1::cuda-runtime nvidia/label/cudnn-9.10.0::cudnn
pip install tensorrt==10.12.0.36 --extra-index-url https://pypi.nvidia.com

之后在启动查看,有问题就解决:

python facefusion.py run

因为任务管理器内无法看到CUDA标签来看GPU的资源调度情况,所以可以通过nvidia-smi来查看

nvidia-smi

H100 nvidia-smi -l 1


ONNX_Runtime其他版本地址,可以参考下面

https://elinux.org/Jetson_Zoo#ONNX_Runtime


如果你觉得好,请大家到公众号给个红心支持一下!!

- THE END -
版权声明:
转载原创文章请注明,文章出处://kinggoo.com
原文地址:https://kinggoo.com/facefusion-h100-install.htm
发表评论?

0 条评论。

发表评论


此站点使用Akismet来减少垃圾评论。了解我们如何处理您的评论数据