ldm = DiffusionPipeline.from_pretrained(model_id).to(device)
这个为什么始终报网络的错误呢
但是我明明开了代理,这个huggingface.com也可以正常ping通,而且前一天还是好好的😭😭
ldm = DiffusionPipeline.from_pretrained(model_id).to(device)
这个为什么始终报网络的错误呢
阿里嘎多学长整理AIGC生成,因移动端显示问题导致当前答案未能完全显示,请使用PC端查看更加详细的解答过程
你遇到的问题是使用 DiffusionPipeline.from_pretrained
方法从 Hugging Face 的模型库中加载 Stable Diffusion 模型时,始终报网络错误。下面是一些可能的解决方案:
model_id
是正确的。可以尝试使用 huggingface.co/stable-diffusion-v1-4
这样的模型 ID。nvidia-smi
命令来检查 CUDA 设备的状态。以下是一个示例代码,使用 DiffusionPipeline.from_pretrained
方法加载 Stable Diffusion 模型:
import torch
from transformers import DiffusionPipeline
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model_id = "huggingface.co/stable-diffusion-v1-4"
ldm = DiffusionPipeline.from_pretrained(model_id).to(device)
如果你仍然遇到问题,可以提供更多的错误信息和代码,以便更好地帮助你解决问题。