- 博客(28)
- 收藏
- 关注
原创 我的图形布局 组织结构图布局
组织结构图布局,有的人也叫它树状布局,在图形中是经常用到的布局算法.形成类似如下图的图形布局方式。到这里其实核心思想已经完成了,整个代码就是应用矩阵来处理.要找出每个面和面之间的关系,不妨形成一个矩阵。根据矩阵找出根节点来。增加验证,是否有循环。
2025-01-22 18:26:48
198
原创 三维点的旋转
加入一个点(x0, y0, z0)绕Z轴旋转beta,然后又绕Y轴旋转theta后,那么可以直接利用矩阵相乘,如下。上一章节讲述了二维点的旋转,类似我们可以推广到三维中,另外在三维坐标系统中一个物体的旋转涉及到上下和左右转动.当你有一个三维空间中的点,并且你想要将这个点绕 z 轴旋转一个角度 β 时,你可以使用下面的旋转矩阵。那么(x0, y0, z0)绕Z轴旋转后的点如下。通过矩阵乘法,你得到新的坐标 (x,y,z)鼠标移动计算阳角或者方位角如下。同理绕X轴旋转一个θ角,同理绕Y轴旋转一个θ角。
2025-01-07 14:30:08
318
原创 二维点的旋转
假设我们有一个点 A(x0,y0),我们可以先考虑点 A 到原点 O 的距离 r, 以及从正 x 轴到点 A 的连线所形成的角 α, 这样,点 A 的坐标就可以表示为 (rcos(α),rsin(α))。当我们绕原点逆时针旋转角度 β 时,点 A 的 x 坐标会受到 cos(β) 和 −sin(β) 的影响(分别乘以 x0 和 y0,而 y 坐标会受到 sin(β) 和 cos(β) 的影响。由于点 A 的坐标是 (x0 ,y0 ),我们可以将其表示为 rcos(α) 和 rsin(α),
2025-01-07 12:01:35
279
原创 我的图形算法布局 力导向布局算法
这种算法的核心就是将有连接关系的图元靠近放置,将没有关系的图元相互之间远离。此算法中涉及到引力计算和斥力计算.根据自己的情况,调整算法中的常量。定义节点之间有关系的连接。
2024-12-18 17:44:09
395
原创 我的图形算法布局 圆形布局
2.当前点和已经放置的点是否重叠,如果重叠则放大半径后,重新放置,直到放下为止。圆形布局算法:就是将所有面图元围绕着中心,以半径为R的圆弧布局.1.根据节点数算出angleSep,从0度开始放置,逐步循环一圈。3.全部放完后,找最远的图元半径,将所有图元位置的半径全部修改。.首先要定义一个节点,用于描述单点的信息,
2024-12-16 18:27:52
295
原创 我的AI学习 Agent
本图是Agent的执行流程.主要说一下分支:根据大模型返回的结果判断是想要的结果就生成答案,输出,不是想要的结果则调整Prompt,让大模型执行.本图是介绍Agent的常用图形,也就是应用相关工具,执行相关动作,记录相关描述,扔给相关模型.这里只是做抽象性,总结性的记录。
2024-12-02 08:12:38
522
原创 我的AI学习之工作流LangGraph
输入信息:原始文本语言(source_lang) 、翻译目标语言(target_lang) 、 原始文本(source_text) 、 第一轮翻译结果(translation_1) 和 改进意见反思(reflection)输入信息:原始文本语言(source_lang) 、翻译目标语言(target_lang) 、 原始文本(source_text) 和 第一轮翻译结果(translation_1)输出结果:基于所有输入信息,给出的第二轮优化后翻译结果(translation_2)先增加访问大模型的方法。
2024-11-27 09:03:09
554
原创 我的AI学习 ai维护工具之langfuse
as_type: Optional[Literal[‘generation’]] = None, # 将记录定义为 Observation (LLM 调用)transform_to_string: Optional[Callable[[Iterable], str]] = None # 将输出转为 string。要用LangFuse的云服务,首先要在LangFuse官网上注册,注册完后将页面拉倒最后,点免费的SignUp,API文档:https://api.reference.langfuse.com/
2024-11-21 08:17:25
2690
原创 我的AI学习 langchain之三(LCEL)
意思是gpt_model模型的默认名叫gpt, ConfigurableField是给model起个名称.,最后代码{“llm”: “gpt”}的意思是大模型执行gpt,模型,LCEL 的价值请参考https://python.langchain.com/v0.1/docs/expression_language/why/更多的例子请看https://python.langchain.com/v0.2/docs/how_to/lcel_cheatsheet/
2024-11-16 08:42:59
609
原创 我的AI学习 langchain之二
更多的三方检索组件链接,参考:https://python.langchain.com/v0.2/docs/integrations/vectorstores/请参照:https://python.langchain.com/v0.2/docs/how_to/#document-loaders。上一章节我们讲了大模型的Pompt模版及解析器和FunctionCalling,本章将继续讲接下来的部分。与向量数据库的链接部分本质是接口封装,向量数据库需要自己选型。上面一行代码自己看看是否可以看懂。
2024-11-15 18:18:32
434
原创 我的AI学习 LangChain
这里没有像之前那样讲的比较字符串来判断是哪一个方法,此处是根据大模型绑定的tools,然后把消息送给大模型的tools,自动判断出到底用了什么方法。3.1和3.2的区别就是llm.with_structured_output方法中入参一个是Pydantic对象,一个是json字符串。LangChain 也是一套面向大模型的开发框架(SDK)为此我专门注册了千帆的账号测试,确实支持百度的千帆大模型。代码中四月不是4月,大模型会自动给出纠正后的答案4月。对大模型完全封装起来了,如下代码。
2024-11-15 07:58:07
775
原创 我的ai学习 llamainIndex
这个 Pipeline 的一个显著特点是,它的每个子步骤是可以缓存(cache)的,即如果该子步骤的输入与处理方法不变,重复调用时会直接从缓存中获取结果,而无需重新执行该子步骤,这样即节省时间也会节省 token (如果子步骤涉及大模型调用)。LlamaIndex 针对生产级的 RAG 系统中遇到的各个方面的细节问题,总结了很多高端技巧,请参照https://docs.llamaindex.ai/en/stable/optimizing/production_rag/
2024-11-12 18:30:01
1714
原创 我的AI学习 Assistants API之二
把EventHandler()传给Run的流式运行中,这样开始创建则会执行on_text_created,每次生产的数据片段会执行on_text_delta。创建 Assistant 时声明 Code_Interpreter。我们用多个 Assistants 模拟一场“六顶思维帽”方法的讨论。首先创建一个文件,然后将它和Code_Interpreter关联。对话中比较友好的输出,而不是一次性把结果剖出来,那就是流式运行。2.Code_Interpreter 操作文件。把回调再扩展更多一些信息。
2024-11-06 09:07:59
342
原创 我的AI学习 Assistants API
Assistants API就是人机对话过程中调用的API,例如各种智能机器人的对话过程.实际上就是一个Assistant.具体文档参考:https://platform.openai.com/docs/api-reference/messages。threads.messages.list() 列出给定 thread 下的所有 messages。threads.runs.update() 修改 run 的 metadata。threads.runs.list() 列出 thread 归属的 run。
2024-11-06 08:03:59
780
原创 我的AI学习 RAG
本段的意思就是将PDF文档,拆分成页,在每一页上如果是文本容器,则读取上面的文本,则读取加到full_Text中,再加个\n,然后对于段落之间就回有两个\n,通过分割,把行之间的\n去掉,就保留了段落之间的\n.然后逐行读取,碰到\n,前面的当做一个段,加入到数组中,最终返回所有段落.上面图的意思:先把知识库建立,询问大模型时,先从知识库检索然后形成prompt,再给到大模型.比较常规的搜索是用ES,由于个人对es没有配置过服务,所以这里就用了大模型提供的向量数据库.实际还是之前讲的代码,流水账而已。
2024-10-31 08:19:31
583
原创 我的AI学习 function Calling2
这个还是前面讲的固定格式,根据tool_call是否和定义的方法名一样,一样则执行定义的方法,然后再塞给大模型.大模型返回最终的结果. 大模型在这里会自动形成下列sql语句,这是大模型的调用,并在tools参数中声明函数的名称,类型描述,入参,入参中参数的类型描述等.像这固定格式的描述写长了也就记住了.今天继续增加function Calling的例子.其实原理都是一样的,例2:用 Function Calling 实现多表查询。上述代码是测试输出的多表级联查询.这是一个数据库创建语句。
2024-10-23 09:08:30
232
原创 我的AI学习 Function Calling
简单的解释一下:调用大模型中,tools是对外部方法的描述, 可多个方法,在后面根据名称执行不同的方法,如果大模型返回的Message中tool_calls中不为空,则根据名称比对调用哪一个函数,然后把结果再次传给大模型.所为的Function Calling就是函数调用,调用外部的函数,例如让大模型告诉我们我目前位置的坐标,大模型肯定不知道,此时让大模型调用指定的函数,获取信息后,再给到大模型,然后大模型再输出到外部给到用户。它表现出的逻辑、推理,是训练文本的统计规律,而不是真正的逻辑,所以有幻觉。
2024-10-22 09:48:58
1281
原创 我的AI学习 提示词二
这里是把各种套餐放到Mesage中,当做背景.也就是角色system,在调用get_completion时要把用户的Prompt和AI返回的信息都要加入到Messages中,为什么呢?因为大模型没有记忆功能.我们平常用的文心或Gpt或千问都是一个逻辑,每次问大模型时,都是把界面前面的的交互的所有信息全部传给大模型的.提示词到这也就唠叨完了,作为开发人员主要是了解一下代码,找一下感觉.虽然老师当时说意思不需要熟悉代码.我还是不认同的.上面的例子是用纯Prompt实现的,本讲中我们用。以上代码都是可以执行的.
2024-10-16 09:26:59
526
原创 我的AI学习 提示词一
这说简单也简单,说难也很难的,如何让大模型理解我们说的问题,是一个门槛低,天花板很高的任务。2.assistant:助手角色通常是指帮助用户完成特定任务的智能体,它根据用户的输入提供相应的反馈或执行任务。这可能不是我们想要的,因为我们没有说漂亮女生的标准,所以可以再详细的描述,例如女生是不带帽子的,且是圆脸,大模型又给我了一副图。:输出的风格、格式描述,引导只输出想要的信息,以及方便后继模块自动解析模型的输出结果,比如(JSON、XML)这里都是非常简单的代码,着重是找一下Prompt提示词的感觉。
2024-10-15 08:16:51
850
原创 我的AI学习 基础篇
我的AI学习:基础` 今年的诺贝尔物理奖给了搞机器学习和神经网络的人了。因为这两位奠定了AI的基础。所以观点:基于机器学习、神经网络的是AI。AI大模型(LLM),也叫大语言模型,这里我列几个网站,也是我平常遇到问题经常在上面访问的,不妨大家点进去看看GPT:https://chatgpt.com/文心一言:https://yiyan.baidu.com/通义千问:https://tongyi.aliyun.com/qianwen/这三个网站,我都放到我的网页主页上了。有问题打开直接对话,非常
2024-10-09 09:15:13
546
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人