- 博客(230)
- 收藏
- 关注
原创 无人机视频检测--为什么需要对视频做编码?
大幅减小文件大小(50-200倍压缩)生成标准格式,便于播放和分享提高传输和存储效率保持可接受的视觉质量如果不编码,直接保存原始帧,文件会非常大且无法直接播放。编码在保证质量的同时,显著减小文件大小并生成标准视频格式。这就是为什么代码中使用 ffmpeg 或 OpenCV VideoWriter 进行编码的原因。❌ 错误顺序:编码 → 检测原因:编码后的视频是压缩数据,无法直接进行目标检测✅ 正确顺序:解码 → 检测 → 编码原因:1. 解码:将视频转换为可处理的图像数据。
2026-01-04 11:44:55
905
原创 ubuntu Nano常用指令
Nano 是一款非常适合命令行环境新手的文本编辑器,界面简洁,操作直观。下面这个表格汇总了它的核心操作指令,方便你快速查阅。
2025-12-25 11:44:00
226
原创 机器狗无法行动问题分析
总而言之,你遇到的这一系列错误的核心是机器人根据其感知信息(代价地图)判断自己处于一个无法移动且无法旋转的“绝境”。解决问题的关键在于通过调整参数和检查系统状态,确保代价地图能够准确反映真实的物理环境,并为机器人留出合理的运动空间。
2025-12-23 16:35:34
1233
原创 本地私有GitLab搭建:将已有定时备份的文件,进行远程备份的实现方案
对于大多数用户,从方案一(SCP/SSH)开始最为稳妥,它简单、可靠且易于调试。如果备份数据量非常大或频率很高,再考虑方案二(Rsync)以提升效率。只有对数据一致性要求极高,需要近实时容灾的场景,才考虑方案三(Lsyncd)。希望这份详细的方案能帮助您顺利实现GitLab备份的异地容灾!如果您在实施过程中遇到具体问题,欢迎随时追问。
2025-12-22 15:16:14
563
原创 ubuntu添加用户完整命令
这个命令是一个功能完整的 Linux 用户创建命令,特别适合需要具备管理员权限的普通用户。下面为您详细解析每个部分的作用。
2025-12-22 14:37:22
299
原创 git clone拉取代码报错解决办法:fatal: could not create work tree dir ‘agent4trending‘: Permission deniedclone
git clone拉取代码报错解决办法:fatal: could not create work tree dir ‘agent4trending’: Permission deniedclone。解决方案:sudo chmod 777 -R 在对应的用户的最外层目录执行该命令,将写入权限也赋给非root用户后,问题解决;根因:当前目录权限不足;常见于ubuntu系统通过root创建的目录,默认755权限,普通用户拉取代码时,没有写入权限;
2025-12-22 10:39:47
87
原创 Ubuntu系统中查询显卡的生产日期
在Ubuntu系统中查询显卡的生产日期,最核心且可靠的方法是找到显卡上的SN码(序列号),然后通过特定规则解读或官网查询。由于Ubuntu没有像Windows那样直接显示生产日期的图形化工具,命令行也无法直接获取此信息,因此需要“手动”处理。
2025-12-15 15:13:35
769
原创 ubuntu网络管理功能分析
这是Linux下常见的网络管理服务,负责管理有线/无线网卡、VPN、移动宽带等。用户可根据需求选择合适的工具,无需额外安装(除非切换版本或最小化安装)。,但具体实现方式因版本(桌面版/服务器版)和安装类型而异,核心工具包括。是轻量级、高性能的工具,适合服务器环境(资源有限、需要稳定运行)。Ubuntu服务器版(如20.04、22.04)Ubuntu桌面版(如22.04、24.04))定义网络设置,然后调用底层渲染器(提供图形化和命令行支持,服务器版通过。组件的一部分)作为网络管理服务。
2025-12-15 11:59:34
914
原创 MQTT客户端快速调试工具实践记录
1)在工具界面 新增订阅 对应topic的 _reply后缀的topic,这样服务端收到发送的消息后,响应的消息会在上面的窗口中显示;2)在服务器后台,查看对应消息处理服务的日志;(具体跟产品自身的业务实现有关)工具获取地址:https://github.com/emqx/MQTTX。1、先配置topic(上图右下角的)
2025-12-15 10:35:49
139
原创 Ubuntu如何判断获取到的IP地址是静态IP还是动态?
通过以上方法,可快速判断 Ubuntu 当前使用的是动态还是静态 IP。若需切换类型,需修改对应配置文件并重启网络服务。
2025-12-15 10:28:34
862
原创 AI驱动架构设计开源项目分析:next-ai-drawio
系统提示词(角色定义:draw.io XML 生成专家和核心能力:生成流程图、思维导图等布局约束:坐标范围、容器尺寸限制特殊要求:中文回复、AWS 图标、图片识别等:创建新图表:编辑现有图表第 82-90 行将当前 XML 和用户输入格式化为结构化文本这些提示词共同指导 AI 生成和编辑 draw.io 图表。
2025-12-12 12:59:31
321
原创 Spring Boot 的配置文件加载优先级和合并机制分析
JAR 内部配置配置会合并:外部配置覆盖相同键的值,未定义的键继续使用内部配置推荐做法:外部配置文件只包含需要修改的配置项,其他使用默认值这样可以在不重新打包的情况下,灵活调整生产环境的配置。
2025-12-04 17:32:14
266
原创 大疆无人机开源项目源码分析:MQTT指令定义源码分析
核心 Topic 定义文件/***/定义了所有 MQTT Topic 的前缀和后缀常量。等等路由处理层:各种 Router 类Services:服务指令(双向通信)Requests:设备请求指令(设备主动请求)Events:事件指令(设备主动上报)DRC:实时控制指令(上行/下行)State/OSD:状态和遥测数据该架构支持通过 MQTT 与无人机设备进行多种类型的指令交互。
2025-12-04 17:23:50
421
原创 大疆无人机开源项目源码分析:MQTT协议实现分析
基础通信:MQTT over TCP(tcp://,端口 1883)无人机控制:MQTT over WebSocket(ws://,端口 8083)BASIC 使用 TCPDRC 使用 WebSocket(便于浏览器/Web 客户端连接)都使用 Eclipse Paho MQTT 客户端库,支持 TCP 和 WebSocket 两种传输方式。
2025-12-04 17:20:43
357
原创 大疆开源的MQTT交互的SDK包下载地址和接口文档地址
为了帮助您快速获取大疆无人机MQTT交互相关的开发资源,我整理了以下官方及社区资料链接。这些资源主要围绕大疆的,它正是通过MQTT等标准协议将无人机能力抽象为物联网设备物模型的核心方案。下表汇总了核心的SDK示例代码库和官方文档地址,方便您直接取用。
2025-12-01 17:18:41
435
原创 mac系统安装从github下载的开源软件时,提示:“已损坏,无法打开” 之 解决办法
github下载的dmg文件安装后,提示“已损坏,无法打开”根据图片内容,这是因为macOS系统的安全机制阻止了该应用的运行。
2025-11-24 21:56:14
206
原创 【一、基础篇】Q5:Encoder 和 Decoder 结构的主要区别?
Transformer模型中的Encoder和Decoder在结构上既有相似之处,也存在关键区别,这些区别决定了它们各自在模型中的独特作用。下面的表格清晰地展示了它们的核心差异。
2025-11-07 17:33:15
429
原创 【一、基础篇】Q4:位置编码的作用是什么?
总而言之,位置编码是Transformer模型理解序列逻辑的“指南针”。它通过弥补自注意力机制无序性的固有缺陷,使模型能够正确处理语言中的顺序信息,这是Transformer及其衍生的大语言模型能够在诸多序列任务上取得成功的基石。希望以上的解释能帮助你清晰地理解位置编码的作用。如果你想了解像RoPE这样的特定编码方式是如何具体实现的,我们可以继续深入探讨。
2025-11-07 17:15:49
627
原创 【一、基础篇】Q3:多头注意力中 “头”(head)指的是什么?
总之,多头注意力中的“头”是实现多角度序列理解的核心组件。它通过并行独立的注意力计算单元,使模型能够同时捕捉输入数据中不同类型的关系,从而为现代大语言模型(如Transformer系列)的强大性能奠定基础。
2025-11-07 17:04:42
305
原创 【一、基础篇】自注意力机制中的 Q,K、V 矩阵是什么缩写?
自注意力机制中的分别是和的缩写。它们是理解Transformer模型及其衍生大语言模型(如GPT、BERT等)如何工作的核心概念。为了帮助您快速建立整体认知,下表清晰地展示了它们的分工与合作。
2025-11-07 16:58:19
461
原创 【一、基础篇】Transformer 模型主要由哪两部分组成?
Transformer模型主要由和两大部分组成。这是一个经典的序列到序列(Seq2Seq)架构,最初是为机器翻译等任务设计的,其中编码器负责理解输入序列,而解码器负责生成输出序列。下面这个表格清晰地展示了两部分的核心构成与职能。
2025-11-07 16:57:24
810
原创 prefill为什么叫prefill?
在Decode阶段,模型每生成一个新词,只需要将上一个词与之前已缓存好的KV Cache进行计算即可,无需再重复处理整个提示文本。• Prefill就是做笔记的过程:在这个阶段,模型会并行处理你输入的全部提示文字,并通过自注意力机制计算出每个词对应的Key和Value向量,然后将这些向量保存下来,形成KV Cache。总而言之,“Prefill”之所以叫“预填充”,是因为它形象地概括了其核心工作:在生成内容之前,预先将输入信息处理并填充到缓存(KV Cache)中,为高效、流畅的文本生成做好关键准备。
2025-11-05 09:49:20
376
原创 transformer架构为什么要切分为多头?
Transformer的多头注意力机制通过功能分解和并行处理,在不过度增加计算成本的前提下,显著提升了模型的语言理解能力和表达能力,这是其能够在各类NLP任务中取得突破性成果的关键设计之一。单头注意力机制只能学习一种固定的注意力模式,而多头注意力允许模型同时从不同的语义子空间捕捉多样化的信息关系。例如,GPT-3采用96个头,每个头仅128维,在这种相对低维空间中,注意力权重的计算更加精确可靠。研究表明,不同的头会自发学习不同类型的注意力模式,如关注局部依赖、长距离依赖、语法关系等。
2025-11-02 12:47:23
442
原创 VLM主流架构分析:Gemini 2.5 Pro 和 Qwen3-VL
Gemini 2.5 Pro 和 Qwen3-VL 代表了当前视觉语言模型(VLM)两种主流的架构方案。Gemini 2.5 Pro 采用的是从零开始协同设计的,而 Qwen3-VL 则采用了基于大型语言模型(LLM)扩展的。下面的表格可以让你快速把握两者的核心区别。
2025-10-31 17:47:38
396
原创 大模型训练加速(基于minimind)
技术加速倍数显存节省说明2-4x~50%注意力计算优化混合精度 (bfloat16)1.5-2x~50%训练精度优化DDP (N卡)~N倍多卡并行梯度累积等效增大batch减少峰值显存显存受限时有效Pin Memory1.1-1.2x数据加载优化zero_grad优化轻微轻微内存优化。
2025-10-31 10:10:40
377
原创 参数量和模型大小的计算方法(LLM)
与训练时相同: 2 bytes per parameter。=== 5. MiniMind实际使用 ===训练时: bfloat16 (2 bytes)模型大小 = 参数量 × 数据类型大小。=== 参数量到模型大小计算 ====== 2. 数据类型大小 ====== 3. 学生模型计算 ====== 4. 教师模型计算 ===参数量: 123,100,000。=== 1. 基本公式 ===参数量: 31,700,000。=== 6. 压缩效果 ===模型大小压缩: 3.9:1。
2025-10-28 17:49:33
893
原创 模型参数大小计算
基于代码分析,我可以明确回答教师模型和学生模型的大小:=== 教师模型 vs 学生模型大小对比 ====== 1. 模型配置对比 ====== 2. 参数量计算 ====== 3. 大小对比 ====== 4. 实际代码中的显示 ====== 5. 压缩效果 ====== 6. 性能考虑 ====== 7. 总结 ===教师模型 vs 学生模型:✅ 教师模型: 123.1M参数, 768维, 16层✅ 学生模型: 31.7M参数, 512维, 8层✅ 压缩比: 3.9:1。
2025-10-28 17:47:26
701
原创 LLaMA-Factory 集成了哪些超参数调优框架?及 Optuna + Weights & Biases + TensorBoard对比分析
总而言之,LLaMA-Factory 不仅集成了超参数调优框架,而且通过自动化算法、高效的微调策略和友好的用户界面三者结合,将调优过程变得系统化和可操作。无论你是初学者还是资深开发者,都能借助它有效地提升模型训练的效果和效率。总而言之,LLaMA-Factory通过灵活的配置,将TensorBoard和WandB等专业可视化工具无缝接入训练流程,极大地提升了实验的可观测性和管理效率。如果您是独立研究者或进行本地调试,从开始会非常直接和方便。如果您在团队中工作或需要进行系统的超参数搜索和实验对比。
2025-10-28 13:59:16
931
原创 LangGraph框架解决AI上下文过载问题
痛点:简单的上下文修剪可能导致间接相关但关键的信息丢失。原理语义浓缩。当上下文过长时,触发摘要节点,让模型将历史对话提炼成简洁的摘要,保留核心观点、逻辑关系和关键数据,然后用摘要替代原始长上下文。LangGraph实现:设置一个条件分支,当上下文Token数超过阈值(如1500)时,触发“摘要节点”,生成摘要后再进入回答生成阶段。性能提升:与仅修剪相比,在保证高压缩率(30K Token→8K Token)的同时,将关键信息遗漏率从25%大幅降低至8%。
2025-10-28 13:48:51
540
原创 模型训练的各个训练阶段的参数设置的建议值
然而,我们可以根据训练的不同阶段和目标,提供一套具有强指导意义的。以下是根据上图所示的训练阶段,给出的详细参数设置建议与解释。,最佳参数严重依赖于具体任务、数据、模型架构和硬件条件。希望这份分阶段的建议能为你提供清晰的调参路线图!这是一个非常核心且实用的问题。
2025-10-28 09:35:13
790
原创 lovable实战记录
方面说明抓取方式Lovable 内置工具(非开源爬虫)设计方法分析 + 原创重建(非直接复制)代码来源100% 手写 React 组件问题:说明你的角色定义,目的,和功能🤖 我的角色定义我是 Lovable,一个专门用于创建和修改 Web 应用程序的 AI 编辑器。我通过与你对话来理解你的需求,并实时对代码进行更改。🎯 我的目的我的核心目的是帮助你:快速构建 Web 应用:无需从零开始,我可以帮你生成完整的应用架构迭代和优化:根据你的反馈不断改进应用解决问题:调试错误、优化性能、改进用户体验。
2025-10-23 09:54:08
1029
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅