- 博客(2)
- 收藏
- 关注
原创 deep seek r1 671b 基于火山引擎+coze+豆包,布置属于自己的671b 人工智能
模型参数越多,理论上模型的学习能力越强,处理复杂任务的能力也越强。然而,更大的模型也意味着更高的训练和推理成本。:选择合适的模型规模需要根据具体的应用场景和资源限制来决定。对于资源有限或对实时性要求高的应用,较小的模型可能更合适;而对于复杂和精度要求高的任务,较大的模型则更为适用。:模型规模越大,所需的计算资源(如GPU/TPU的数量和内存)也越多。因此,在选择模型时需要考虑计算资源的限制。
2025-02-06 01:17:49
2498
原创 保姆级教程:deepseek r1无脑本地部署教程 ,基于ollama,chatbox部署
deep seek无脑本地安装,适合新手,一秒上手ez,没难度
2025-02-06 00:16:58
1646
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人