自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(17)
  • 收藏
  • 关注

原创 CosyVoice部署和测试

勇气</strong>与<strong>智慧

2024-09-15 21:48:31 2773

原创 MindSearch 部署到Github Codespace 和 Hugging Face Space(学习笔记)

随着硅基流动提供了免费的 InternLM2.5-7B-Chat 服务(免费的 InternLM2.5-7B-Chat 真的很香),MindSearch 的部署与使用也就迎来了纯 CPU 版本,进一步降低了部署门槛。在最后,将 /root/mindsearch/mindsearch_deploy 目录下的文件(使用 git)提交到 HuggingFace Space 即可完成部署了。现在codespace就是本地仓库,huggingface space是远程仓库,接下来使用方法就和常规的git一样了。

2024-09-01 22:40:46 1096

原创 茴香豆:企业级知识库问答工具(学习笔记)

在实际的生产和生活环境需求,对 RAG 系统的开发、部署和调优的挑战更大,如需要解决群应答、能够无关问题拒答、多渠道应答、更高的安全性挑战。配置文件默认的模型和下载好的模型相同。茴香豆的架构中,除了利用 LLM 的功能判断问题相关性,也可以通过手动添加正例(希望模型回答的问题)和反例(希望模型拒答的问题)来调优知识助手的应答效果。修改完配置文件后,就可以进行知识库的搭建,本次教程选用的是茴香豆和 MMPose 的文档,利用茴香豆搭建一个茴香豆和 MMPose 的知识问答助手。格式文件的上传和删除。

2024-08-31 15:52:03 1039

原创 InternVL 微调实践闯关任务(学习笔记)

让我们一起修改XTuner下 InternVL的config,文件在: /root/InternLM/code/XTuner/xtuner/configs/internvl/v2/internvl_v2_internlm2_2b_qlora_finetune.py。如果这里你执行的epoch不是6,是小一些的数字。之后我们使用lmdeploy自带的pipeline工具进行开箱即用的推理流程,首先我们新建一个文件/root/InternLM/code/test_lmdeploy.py。

2024-08-31 14:08:19 746

原创 LMDeploy 量化部署进阶实践(学习笔记)

本次实践选用InternVL2-26B进行演示,其实就根本来说作为一款VLM和上述的InternLM2.5在操作上并无本质区别,仅是多出了"图片输入"这一额外步骤,但作为量化部署进阶实践,选用InternVL2-26B目的是带领大家体验一下LMDeploy的量化部署可以做到何种程度。随着模型变得越来越大,我们需要一些大模型压缩技术来降低模型部署的成本,并提升模型的推理性能。让我们回到LMDeploy,在最新的版本中,LMDeploy使用的是AWQ算法,能够实现模型的4bit权重量化。

2024-08-30 12:09:35 1948

原创 Lagent 自定义你的 Agent 智能体(学习笔记)

首先,我们先来创建工具文件:/root/agent_camp3/lagent/actions/magicmaker.py。接下来,我们将使用 Lagent 的 Web Demo 来体验 InternLM2.5-7B-Chat 的智能体能力。首先,我们先使用 LMDeploy 部署 InternLM2.5-7B-Chat,并启动一个 API Server。然后,我们在另一个窗口中启动 Lagent 的 Web Demo。然后,我们再试一下“帮我搜索一下 MindSearch 论文”。

2024-08-26 22:33:50 1099

原创 Git 前置基础(学习笔记)

git clone https://github.com/conway2019/Tutorial # 修改为自己frok的仓库。git commit -m "add git_4376_introduction" # 提交信息记录。#在 github 页面将修改的内容 PR 到 Tutorial,按要求编写 title。

2024-08-24 10:01:15 308

原创 Python 前置基础(学习笔记)

实现一个wordcount函数,统计英文字符串中每个单词出现的次数。返回一个字典,key为单词,value为对应单词出现的次数。#记得先去掉标点符号,然后把每个单词转换成小写。不需要考虑特别多的标点符号,只需要考虑实例输入中存在的就可以。2. 在vscode中进行debug。

2024-08-22 23:00:12 172

原创 Linux 前置基础(学习笔记)

使用密码进行SSH远程连接,在InternStudio中,选择开发机,点击“SSL连接”可以获得开发机域名、端口和登录密码。echo "操作可以是 'export' 或 'restore'"# 导出环境到当前目录下的env_name.yml文件。# 从当前目录下的env_name.yml文件还原环境。echo "使用方法: $0 "echo "正在导出环境: $env_name"echo "正在还原环境: $env_name"echo "未知操作: $1"# 定义导出环境的函数。

2024-08-22 22:36:24 804

原创 OpenCompass 评测 InternLM-1.8B 实践(学习笔记)

确保按照上述步骤正确安装 OpenCompass 并准备好数据集后,可以通过以下命令评测 InternLM2-Chat-1.8B 模型在 C-Eval 数据集上的性能。在 OpenCompass 中评估一个模型通常包括以下几个阶段:配置 -> 推理 -> 评估 -> 可视化。#InternLM和ceval 相关的配置文件,列出所有跟 InternLM 及 C-Eval 相关的配置。#在/root/opencompass/configs文件夹下创建。# 注意:一定要先 cd /root。

2024-08-17 22:19:20 766

原创 Datawhale X 魔搭 AI夏令营”(ComfyUI)

是GUI的一种,是基于节点工作的用户界面,主要用于操作图像的生成技术,ComfyUI 的特别之处在于它采用了一种模块化的设计,把图像生成的过程分解成了许多小的步骤,每个步骤都是一个节点。这些节点可以连接起来形成一个工作流程,这样用户就可以根据需要定制自己的图像生成过程。#“load”上传工作流脚本,“Queue Prompt”执行,以下使用了教程中的两个工作流脚本(kolors_example.json,kolors_with_lora_example.json),生成了图片。

2024-08-17 20:47:04 212

原创 XTuner微调个人小助手认知(学习笔记)

对于 LoRA 或者 QLoRA 微调出来的模型其实并不是一个完整的模型,而是一个额外的层(Adapter),训练完的这个层最终还是要与原模型进行合并才能被正常的使用。#模型转换的本质其实就是将原本使用 Pytorch 训练出来的模型权重文件转换为目前通用的 HuggingFace 格式文件。# 创建一个目录,用来存放微调的所有资料,后续的所有操作都在该路径中进行。# 激活虚拟环境(注意:后续的所有操作都需要在这个虚拟环境中进行)# 先获取最后保存的一个pth文件。# 创建一个目录,用来存放源代码。

2024-08-17 15:31:28 1076

原创 llamaindex+Internlm2 RAG实践(学习笔记)

st.session_state.messages = [{"role": "assistant", "content": "你好,我是你的助手,有什么我可以帮助你的吗?st.session_state.messages = [{"role": "assistant", "content": "你好,我是你的助手,有什么我可以帮助你的吗?#在/root/llamaindex_demo目录创建data目录,然后下载。#将创建的嵌入模型赋值给全局设置的embed_model属性,

2024-08-17 15:01:34 722

原创 LangGPT结构化提示词编写实践(学习笔记)

LangGPT 是一个编写高质量提示词的工具,理论基础是一套模块化、标准化的提示词编写方法论——结构化提示词。欢迎使用提示词生成器,请描述您希望AI帮助解决的具体问题或场景,以便我为您生成最合适的提示词。- description: 你是大模型提示词专家,名为 LangGPT,你擅长通过结构化的输入生成精确、高效的提示词,帮助用户与AI进行更深层次的交互。将以上结构化提示词,输入到“系统提示”中,“最大token长度”设置成1000,点击"保存设置"。3. 在设计提示词时,考虑到AI的理解能力和响应范围。

2024-08-16 13:03:50 2118

原创 8G 显存玩转书生大模型 Demo(学习笔记)

system_prompt = """You are an AI assistant whose name is InternLM (书生·浦语).使用 LMDeploy 启动一个与 InternLM-XComposer2-VL-1.8B 模型交互的 Gradio 服务。注意:个人电脑上的浏览器访问http://localhost:6006/,需要通过建立隧道,访问服务端的6006服务。启动 InternVL2-2B 模型的 Gradio 服务。激活环境并安装 LMDeploy 以及其他依赖。

2024-08-16 09:41:31 822

原创 大模型全链路开源开放体系(学习笔记)

目前国内一些大模型厂商提供了从数据、预训练、微调、部署、评测和应用,全链路的开源开放产品,为中国大模型的推广、普及和发展起着推动作用。开源InternLM2-WQX,这是一个200亿参数量的语言模型,在2024年高考中取得接近GPT-4o的成绩。开源书生·浦语灵笔(InternLM-XComposer),这是首个支持图文混合创作的大模型。发布InternLM2-Math,这是首个同时支持形式化数学语言及解题过程评价的开源模型。开源InternLM2-Math-Plus,刷新开源数学模型性能上限。

2024-08-15 08:43:41 573

原创 Datawhale X 魔搭 AI夏令营”

np.concatenate(images[6:8], axis=1), # 将第4组(images[6:8])的两张图像在水平方向上拼接 ], axis=0) # 将四组拼接后的图像在垂直方向上拼接 image = Image.fromarray(image).resize((1024, 2048)) # 将拼接后的numpy数组转换为图像对象,并调整大小为1024x2048像素。image.save("image.jpg") # 输出最终生成的图像对象,用于显示图像。例如:命令行使用以下语句。

2024-08-14 17:43:44 412

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除