大家好,我是爱编程的喵喵。双985硕士毕业,现担任全栈工程师一职,热衷于将数据思维应用到工作与生活中。从事机器学习以及相关的前后端开发工作。曾在阿里云、科大讯飞、CCF等比赛获得多次Top名次。现为CSDN博客专家、人工智能领域优质创作者。喜欢通过博客创作的方式对所学的知识进行总结与归纳,不仅形成深入且独到的理解,而且能够帮助新手快速入门。
本专栏的文章,都是我基于实际项目经验,剥离了繁杂的业务逻辑,提炼出的核心技术内容。我希望通过文字的复现,不仅带大家跑通代码,更重要的是养成一种“从问题出发,寻找最优解”的工程思维。
本文主要介绍了下载大模型到本地的三种解决方案,希望能对同学们有所帮助。
1. 场景/问题描述
当我们使用大模型时,直接用transformers API调用,会自动到huggingface网站下载,但是国内无法直接连接到该网站,故会报网络超时的错误,此时就需要提前下载模型到本地,从本地加载。或者当我们需要将模型进行私有化部署时,也需要将模型下载到本地。下面就教大家3种方案来解决这个问题。


在开始正文之前,我想对关注本专栏的朋友们说几句。技术写作是一场孤独的修行,但读者的反馈是我持续输出的最大动力。本专栏的文章,都是我基于实际项目经验,剥离了繁杂的
订阅专栏 解锁全文
22万+





