
人工智能
文章平均质量分 86
探索AI新知,洞见未来趋势,引领科技新潮流。
晟盾科技
自2011年创办以来,始终以“致力于客户的满意与成功”为使命,专注于信息化领域的技术研发与产品应用。主要围绕营销系统、大数据处理、监控运维、呼叫平台、客服系统、数智能源系统等各类IT信息化系统进行产品开发。截至目前,公司业务已覆盖三十多个省、地市,与众多国企、央企建立了长期稳定的合作关系,如国家烟草、国家电网、中石油、中海油、三大运营商等。
展开
-
登顶!目前大模型竞技排行榜!
lmarena.aiChatbot Arena大模型竞技场,开放且免费的AI测评网lmarena.ai。原创 2025-03-21 08:30:54 · 452 阅读 · 0 评论 -
Deepseek-R1揭秘
Deepseek-R1揭秘,deepseek-r1为什么强,deepseek-r1强在哪原创 2025-02-14 15:13:47 · 1229 阅读 · 0 评论 -
构建本地服务PyPI代理和缓存工具
使用缓存机制可以显著减少对外部源的请求量,从而提高下载速度,并降低被源站封禁的风险。下面详细解释如何在本地服务器上设置和使用pip缓存机制。缓存机制的基本原理缓存机制的原理是在本地服务器上保存已经下载过的Python包,当其他服务器请求同样的包时,本地服务器可以直接提供,而无需再次从外部源下载。原创 2025-01-10 09:12:02 · 803 阅读 · 0 评论 -
九、大模型本地部署文档(FastGPT+M3E+Ollama本地部署知识问答大模型系统)
本文档概述了利用Docker部署知识问答大模型系统的流程。演示案例中,通过将名为“闭环思维考试题.txt”的文件提供给M3E模型,该模型执行文本分割等一系列预处理步骤,并基于此进行训练。随后,问题与答案的向量被存储到知识库中。在Fastgpt平台中创建的新对话引入了这个闭环思维知识库,并使用Qwen 3.2版本作为对话模型来进行知识问答。对于提问“闭环思维的核心是什么?”的回答是“凡事有交代”,这一回答引用自闭环思维知识库。总结而言,当前工作主要集中在对Fastgpt本地部署和使用的初步探索上。原创 2025-01-02 18:32:29 · 1362 阅读 · 0 评论 -
八、大模型本地部署文档(docker部署GPU环境)
其他docker服务想要使用GPU环境必须保证服务部署在与GPU环境所处的网络环境一致。显示CUDA版本为cu118,docker的GPU环境配置完成。查看镜像后,使用gpu模式启动镜像。物理机安装nvidia驱动。获取cuda的版本以及系统。原创 2024-12-26 16:23:32 · 466 阅读 · 0 评论 -
七、大模型本地部署文档(ubantu20.04安装docker)
ubantu20.04安装docker原创 2024-12-19 18:55:49 · 608 阅读 · 0 评论 -
六、大模型本地部署文档(Ubantu20.04 Ollama本地部署大模型)
Ollama 是一种新的本地语言模型管理与运行平台,旨在帮助用户在本地环境中运行和管理大型语言模型(LLMs),例如 LLaMA、GPT 等。与传统基于云的解决方案不同,Ollama 专注于在用户本地系统上运行这些模型,以提高数据隐私性和响应速度。注意:关于ollama为什么能使用较小算力资源运行大模型,可能是因为模型本身提供的模型量化技术,通过模型量化技术减小内存占用,但会损失模型精度。参考。原创 2024-12-12 15:50:24 · 1180 阅读 · 0 评论 -
五、大模型本地部署文档(ubantu20.04安装 pycharm以及git配置)
(注意:Exec和Icon后面的路径地址分别是pycharm.sh和pycharm.png这两个文件的地址,这里需要修改一下,可以直接打开pycharm安装包,找到bin,然后打开,里面就有这两个包,然后分别把这两个包的路径粘贴到对应的位置都好了。由于 Git 会从多个文件中读取同一配置变量的不同值,因此你可能会在其中看到意料之外的值而不知道为什么。安装完成后会得到一个.tar.gz的压缩包,接下来要对压缩包进行解压,在放有压缩包的目录下打开终端运行框。的工具来帮助设置控制 Git 外观和行为的配置变量。原创 2024-12-05 17:02:00 · 1157 阅读 · 0 评论 -
四、大模型本地部署文档(ubantu安装miniconda)
想要弄明白为什么要安装conda工具可以先看看下面这篇文章。python是代码的编译工具即解释器。当我们需要不同版本的python时为了方便管理python版本以及python的包环境我们选择使用conda。而pycharm是一个集成的代码编写工具,主要是提供一些方便代码编写和运行的功能。之后输入密码即可。按照提示,同意用户隐私协议。a.打开~/.bashrc文件c.打开后按i键进入编辑模式在代码最后加入这样一段代码,按Esc退出输入:x保存并退出。原创 2024-11-28 16:05:32 · 991 阅读 · 0 评论 -
三、大模型本地部署文档(ubantu20.04网络配置解决方法)
问题描述:网线插到笔记本能够正常联网,但是插到服务器就不能正常联网。原创 2024-11-21 16:22:37 · 455 阅读 · 0 评论 -
二、大模型本地部署文档(ubantu20.04安装python)
先检查系统是否自带python,如果系统自带python,建议直接跳转使用miniconda管理python版本以及python虚拟环境。原创 2024-11-15 09:47:49 · 314 阅读 · 0 评论 -
一、大模型本地部署文档(安装 NVIDIA 显卡驱动、CUDA、CUDNN)
演示系统配置:ubantu 20.4可以通过指令删除以前安装的NVIDIA驱动版本,重新安装。在安装NVIDIA驱动以前需要禁止系统自带显卡驱动nouveau:可以先通过指令查看nouveau驱动的启用情况,如果有输出表示nouveau驱动正在工作,如果没有内容输出则表示已经禁用了nouveau。如果有则按照下面操作禁用:在终端输入弹出blacklist.conf文件:在blacklist.conf文件末尾加上这两行,并保存:然后在终端中输入: #应用更改重启,就禁止了ubuntu20.04自带的no原创 2024-11-07 17:31:23 · 2187 阅读 · 0 评论 -
热点事件聚类思路以及实现-HanLP实现关键词提取
现在的工单热点关键词是调用大模型生成的还借助大模型二次调用来把所生成的热点进行归类创建一个,热点事件库即提取过后的工单热点将这些热点扔给大模型给直接判断是不是一类。或者就用算法生成向量,每次来新热点时,判断与老热点的相似度,若相似度在某某比例,则如高于80%,则归为一类,让数量加1,其余就新建一个热点即添加进数据库,如此重复,我觉得缺点是这个80%这个阈值不好确定。原创 2024-10-23 13:55:13 · 686 阅读 · 0 评论 -
语音转文字工具ChatTTS(Api版本) 超详细图文windows部署教程,包括如何在Java的SpringBoot项目中调用此api
ChatTTS是专门为对话场景设计的文本转语音模型,例如LLM助手对话任务。它支持英文和中文两种语言。最大的模型使用了10万小时以上的中英文数据进行训练。在HuggingFace中开源的版本为4万小时训练且未SFT的版本。原创 2024-10-23 11:16:59 · 1882 阅读 · 0 评论