- 博客(180)
- 资源 (4)
- 收藏
- 关注
原创 info There appears to be trouble with your network connection. 解决
删除 yarn.lock。
2025-05-07 23:05:13
106
原创 第四十六篇-Tesla P40关闭GPU的ECC释放部分显存
Tesla系列GPU默认开启了ECC(error correcing code,错误检查和纠正)试了试,显存多出1.5G左右。建议开启ECC,GPU可靠性高。开启ECC 提升数据可靠性,可用内存的减少和性能上的损失。关闭ECC,释放完整显存,性能优化,数据错误风险增加。
2025-03-11 22:34:52
390
原创 第四十四篇-Tesla P40+Janus-Pro-7B部署与测试
速度挺快,简单的快5秒,复杂的就长了20秒+也可以使用hf-mirror在线下载。速度挺慢的,30秒+,有时更长。效果不好评判,只有自己试用。deepseek
2025-02-14 22:27:25
863
原创 宝塔-firefox(Docker应用)-构建自己的Web浏览器
点击firefox应用,选择【安装配置】点击右边绿色按钮,进行安装,这一步等待docker-compose根据你的配置初始化docker应用。这个过程根据你的网络情况而定,我的半小时才好。现在可以使用一个web的浏览器。密码是上面安装配置里的密码。
2024-12-26 15:03:00
807
原创 Docker-构建自己的Web-Linux系统-镜像webtop:ubuntu-kde
【代码】Docker-构建自己的Web-Linux系统-镜像webtop:ubuntu-kde。
2024-12-26 13:48:09
513
原创 第四十三篇-Ollama-TeslaP40-Qwen2.5-Coder-32B速度
Ollama-TeslaP40-Qwen2.5-Coder-32B
2024-11-21 21:52:38
973
2
原创 第四十篇-TeslaP40+Ollama+Ollama-WebUI(自编译)
本文介绍用自己编辑ollama-webui,链接本地ollama。
2024-08-28 23:37:29
1196
原创 第三十九篇-TeslaP40+CosyVoice-安装
以上文本,在P40中大概20秒生成,GPU显存消耗 2126MiB GPU 90%~100%可以先下载CosyVoice-300M-Instruct与CosyVoice-ttsfrd。
2024-08-28 21:44:52
843
原创 第三十八篇-TeslaP40-SenseVoice部署,速速杠杠的
TeslaP40-SenseVoice部署,速速杠杠的,P40默认跑SenseVoice,识别1分钟的音频3秒完成,识别的准确率还是很好的,有待进一步测试。
2024-08-24 00:31:58
604
原创 CentOS7+Python+Flask+Https服务
确认Openssl存在req 是 OpenSSL 工具的一个子命令,用于处理证书签名请求。-newkey rsa:2048 选项表示要创建一个新的 RSA 密钥,并将其长度设置为 2048 位。这个密钥将用于后续的证书请求和签名操作。-nodes 选项表示不要对私钥进行加密,即使私钥被泄露也不会对其进行保护。这在测试和开发过程中很有用,但在生产环境中不建议使用。-keyout example.key 选项指定了生成的私钥文件的路径和名称。
2024-08-22 22:35:32
479
原创 ImportError: cannot import name ‘is_mlu_available‘ from ‘accelerate.utils‘异常处理
ImportError: cannot import name 'is_mlu_available' from 'accelerate.utils'pip install --upgrade accelerate
2024-07-25 11:14:54
4756
1
原创 宝塔安装完成,但访问https宝塔面板404,可以试试如下操作
使用http登录成功,后面再看是什么原因。选 14 查看登录信息,和密码。选 26 关闭面板ssl。
2024-07-22 23:34:07
1924
原创 第三十四篇-学习构建自己的Agent
https://github.com/shibing624/agentica (原项目名:actionflow)该项目可以学习如何构建Agent,可以使用ollama。
2024-07-03 09:16:31
349
原创 第三十三篇-Ollama+AnythingLLM基本集成
AnythingLLM专属私有知识库,可以使用本地OllamaLLM模型,可以上传文件,基于文件回答问题。
2024-06-21 00:01:18
1681
1
原创 第三十篇-Ollama-TeslaP40-Ollama-Qwen2-57B等速度
【代码】第三十篇-Ollama-TeslaP40-Ollama-Qwen2-57B等速度。
2024-06-11 00:47:29
1290
原创 第二十八篇-Ollama-TeslaP40-Ollama-8B-Qwen1.5-32B等速度
Tesla-P40还是挺令我惊讶的,14B模型速度还是非常好的,有机会大家可以用来试试。
2024-04-27 14:50:20
2401
原创 第二十三篇-15T Tokens LLM 开源数据集-FineWeb
该数据集旨在为大型语言模型(LLM)的训练提供优化的数据处理流程,并使用datatrove库进行处理。FineWeb的性能已超越了RefinedWeb等其他高质量网络数据集。数据集许可: Open Data Commons Attribution License (ODC-By) v1.0。FineWeb是一个由Hugging Face提供的大规模英语网页数据集,包含超过15万亿个经过清洗和去重的token,源自CommonCrawl。
2024-04-23 11:08:31
610
原创 第二十一篇-LM-Studio安装部署gguf模型到windows电脑
一般CPU,1B 7B 模型,int4量化还是可以用用的,更大模型推荐GPU。
2024-02-28 19:53:46
8462
2
原创 第二十篇-推荐-纯CPU(E5-2680)推理-llama.cpp-qwen1_5-72b-chat-q4_k_m.gguf
CPU利用2600%左右,42G内存,如果更强的CPU估计还是能到4倍速度吧速度还是可以的,0.6 tokens/s 这个速度还是很慢的,测试一下还是可以的,毕竟是70B的模型呀,继续研究中。
2024-02-27 21:46:02
1633
3
原创 第十九篇-推荐-纯CPU(E5-2680)推理-Nous-Hermes-2-Mixtral-8x7B-DPO.Q4_K_M
CPU利用2000% 24线程可再大些速度还是可以的,4 tokens/s 继续研究中,这个CPU还是可以的,要是换成AMD高级CPU估计效果更好,主要是不用GPU。
2024-02-23 21:48:15
556
原创 第十八篇-推荐-Huggingface-镜像-2023-11
https://aifasthub.com/modelsAI快站可下载你希望快速的模型权重文件
2023-11-21 17:24:24
787
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人