- 博客(16)
- 收藏
- 关注
原创 玩转书生浦语-书生孔明-MindSerach(API调用)
让书生浦语创作根据描述创作一首五言律诗。编程能力满足基本需求是没问题的。过程详细,作为一个私人家教。MindSearch使用案例。1、首先进行token创建。还能进pdf行文档分析。
2024-11-24 16:14:03
281
原创 codespace、huggingface及魔塔社区使用
魔搭社区类似HF,也有一套创建模型的界面。不同的是,它具有审核机制,当符合它的社区规范时才会被公开。那么当上传正常的模型文件后,审核一般就会通过了。魔塔社区与huggingface类似,都是模型共享的平台,其使用也与huggingface类似。上传文件的方法可以直接通过平台添加文件,也可以通过git下载模型后进行修改和上传文件。使用 登录命令进行登录,登录过程中输入刚刚创建的token即可。上传模型到自己创建的huggingface中。为魔塔社区的模型创建一个环境,指定安装目录。
2024-11-24 15:12:29
2015
原创 书生浦语第四期——Python 前置基础
'```json\n{\n "model_name": "书生浦语InternLM2.5",\n "development_institution": "上海人工智能实验室",\n "parameter_versions": ["1.8B", "7B", "20B"],\n "max_context_length": "1M"\n}\n```'将31行的res字符串结果去掉前端的```json和最后的```显示报错在代码第32行,32行开始debug。继续向上追溯,打断点,在第31行。
2024-11-11 15:32:34
689
原创 书生浦语第4期:linux基础
(附在最后:4期的内容比3期的内容又充实不少呢,祝书生浦语越来越好!补充:linux基础命令(便于学习)nvidia 部分命令展示。
2024-11-04 15:27:16
379
原创 书生浦语——强大的大模型学习工具
其具有领先的推理能力如上,100万token的上下文,当你提供一段超长背景知识,模型能够百分百定位到任何位置的任何信息。同时具有高质量的合成数据,可以基于模型进行扩充, 进行微调等,通过opendatalab对nlp任务进行方便的标注。书生浦语具有多个功能,不仅能进行对话问答,同时还具有智能体功能,可以上传文档,进行提取分析文档的内容。具有如下新的特性,1、推理能力领先、2、支持100万字上下文,3、具有自主规划和搜索,完成复杂任务。同时具有一些高质量的开源数据,比如PDF 可以直接进行提取相应的内容,
2024-09-28 11:51:29
361
原创 使用 OpenCompass 来评测 InternLM2 1.8B实践
确保按照上述步骤正确安装 OpenCompass 并准备好数据集后,可以通过以下命令评测 InternLM2-Chat-1.8B 模型在 C-Eval 数据集上的性能。由于 OpenCompass 默认并行启动评估过程,我们可以在第一次运行时以 --debug 模式启动评估,并检查是否存在问题。在 --debug 模式下,任务将按顺序执行,并实时打印输出。除了通过命令行配置实验外,OpenCompass 还允许用户在配置文件中编写实验的完整配置,并通过 run.py 直接运行它。运行结果如下:更上面一样。
2024-09-28 11:23:17
341
原创 XTuner微调个人小助手认知
对于 LoRA 或者 QLoRA 微调出来的模型其实并不是一个完整的模型,而是一个额外的层(Adapter),训练完的这个层最终还是要与原模型进行合并才能被正常的使用。对于全量微调的模型(full)其实是不需要进行整合这一步的,因为全量微调修改的是原模型的权重而非微调一个新的 Adapter ,因此是不需要进行模型整合的。,在使用前我们需要准备好三个路径,包括原模型的路径、训练好的 Adapter 层的(模型格式转换后的)路径以及最终保存的路径。的方式来微调一个自己的小助手认知作为案例来进行演示。
2024-09-20 18:31:43
1066
原创 llamaindex+Internlm2 RAG实践
给模型注入新知识的方式,可以简单分为两种方式,一种是内部的,即更新模型的权重,另一个就是外部的方式,给模型注入格外的上下文或者说外部信息,不改变它的的权重。第一种方式,改变了模型的权重即进行模型训练,这是一件代价比较大的事情,大语言模型具体的训练过程,可以参考。下载sentence transformer过程中,会因网络无法访问而中断,这里建议,先在huggingface官网,下载关于sentence transformer的文件,并将上传至对应的文件夹中。新建一个文件并输入如下代码,并运行。
2024-09-18 16:23:30
367
原创 8G 显存玩转书生大模型 Demo(书生大模型-第二关)
1、创建环境其中,首先声明模型,再创建使用的token,最后是提示词运行结果如下:可以看到输入“请介绍下你”字样的时候,他就回答不出来了,只有输入完整的“请介绍下你自己”,他才能够回答,猜测“自己”是他比较重要的提示词。
2024-08-01 22:09:10
304
原创 internLM-L0-Python-2(书生训练营)
请使用本地vscode连接远程开发机,将上面你写的wordcount函数在开发机上进行debug,体验debug的全流程,并完成一份debug笔记(需要截图)如上可查看text,word,words等内容,使用F11(或单个下箭头进行逐行调试)三、需要debug的地方打上断点,并进行debug。四、逐行debug,查看变量情况。以上就是debug的全过程了。
2024-07-16 18:31:06
268
原创 internLM-L0-Python(书生训练营)
请实现一个wordcount函数,统计英文字符串中每个单词出现的次数。返回一个字典,key为单词,value为对应单词出现的次数。# 将文本转换为小写,去掉开头和结尾的空白符,并将换行符替换为空格。# 用一个字典来存储单词和它们出现的次数。# 遍历每个单词并统计它们的出现次数。# 移除单词两端的标点符号。# 将文本分割成单词。# 调用函数并输出结果。
2024-07-16 17:27:11
669
原创 git clone
1.首先检查有没有在GitHub的https://github.com/settings/keys上添加你本机的SSH key。注意换了电脑是要重新添加的,每台都不一样。添加SSH key的方法:(1)在用户主目录下,看看有没有.ssh目录,如果有,再看看这个目录下有没有id_rsa和id_rsa.pub这两个文件,如果已经有了,可直接跳到下一步。如果没有,打开Shell(Windows下打开Git Bash),创建SSH Key:ssh-keygen -t rsa -C "youremail@exa
2022-02-16 16:43:25
244
原创 2021数学建模B题 空气质量二次模型
第三题:(解题思路)分析题目已知数据包括了各监测点逐小时污染物浓度和气象一次预报数据 以及实测的污染物浓度和气象数据等;这里就是利用实测数据对预报数据进行误 差修正,既然是预测,那实测数据在未来肯定是无法得到的,所以思路就是通过 前期的预测数据和实测数据的差,找到相关的误差修正规律即可;因此在这里推 荐的模型是神经网络模型,具体是设置一个三层的网络机构,输入层数据是一次 预报的气象条件,而标准输出数据为真实污染物浓度与预测污染物浓度的差值, 这样就建立了预测气象条件与实际污染物浓度误差之间的关系;在这里
2021-10-15 16:14:21
1565
转载 2021数学建模B题 空气质量预报二次建模
第二问解题思路2.使用PCA方式分解,将每个变量的众多值做无量纲话处理后放到统一坐标系下,找到最大特征值对应的特征,然后找出每种对应的污染物,结合特征值权重,给出不同的影响 因子自行设计表格,按照影响因子给出不同的天气即可....
2021-10-14 21:02:39
702
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人