自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 问答 (1)
  • 收藏
  • 关注

原创 【项目实训06】系统功能设计与说明

通过自然语言查询快速获取HarmonyOSAPI文档中的相关信息,需要提供极简交互+精准答案,避免复杂功能干扰。通过自然语言交互实现HarmonyOS应用代码的生成与补全,需提供低代码干预+高可控性的交互体验。

2025-05-28 21:42:14 631

原创 【项目实训05】DeepSeek代码生成模型微调实战

我们成功实现了DeepSeek-Coder-1.3B模型在ArkTS代码生成场景的定制化微调。高效参数微调:LoRA技术让我们只需调整0.1%的参数就能获得显著效果资源友好:量化技术使得大模型能在消费级硬件上运行快速迭代:从数据准备到训练完成,整个流程可以在数小时内完成结合检索增强生成(RAG)提升长上下文理解尝试QLoRA等更高效的微调方法构建更全面的代码评估指标体系。

2025-05-28 16:18:41 665

原创 HarmonySmartCoding_4

LoRA的核心思想是通过低秩分解来近似模型参数的全量更新,从而大幅减少需要训练的参数量。ΔW = BAW ∈ ℝ^{d×k} 是原始权重矩阵B ∈ ℝ^{d×r}, A ∈ ℝ^{r×k} 是低秩矩阵(r ≪ min(d,k))前向传播变为:h = Wx + BAxDeepSeek中的LoRA实现通过巧妙的低秩分解和参数注入机制,实现了高效的大型语言模型微调。大幅减少可训练参数(通常减少10000倍以上)保持原始模型性能不降级支持多个任务的快速切换。

2025-05-04 00:05:42 416

原创 HarmonySmartCoding_3

最近我在尝试对DeepSeek-VL-7B这个强大的多模态模型进行微调,过程中遇到了不少问题,也积累了一些经验。本文将详细介绍从环境准备到模型训练、评估的完整流程,希望能帮助到有类似需求的开发者。通过本文的步骤,你应该能够成功地对DeepSeek-VL-7B模型进行微调。LoRA技术让我们能够以较小的计算成本实现模型定制化。在实际应用中,可以根据具体需求调整训练参数和数据格式。

2025-04-29 18:41:55 341

原创 HarmonySmartCoding_2

自动化程度高,减少人工标注成本状态持久化,支持大规模数据处理灵活可扩展,易于适配其他语言通过这种方法生成的"问题-代码"对,将使微调后的模型更精准地理解HarmonyOS开发者的需求,提供更准确的API搜索和代码生成服务。

2025-04-19 20:11:03 416

原创 HarmonySmartCoding_1

数据预处理,根据github与gitee上的arkts项目实例,进行语义分析和代码切分,为后面提示词的生成做准备。在做 arkts 项目的静态分析时,使用 Tree-sitter 写了一个轻量的工具,可以自动提取整个项目的结构信息,包括类、函数、接口、注释、依赖关系等,最终生成一个结构化的数据集,用于后续的分析和可视化。。

2025-04-15 20:01:44 558

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除