- 博客(50)
- 收藏
- 关注
原创 【扩散模型Diffusion Model系列】1-一篇文章带你快速入门扩散模型Diffusion Model,个人入门学习路线+优质学习博客资料
一篇文章带你快速入门扩散模型
2025-01-30 16:57:49
1254
原创 【扩散模型Diffusion Model系列】0-从VAE开始(隐变量模型、KL散度、最大化似然与AIGC的关系)
VAE,变分自编码器,算是Diffusion Model扩散模型的预热,事实上VAE和Diffusion Model有诸多异同
2023-12-18 21:07:31
2061
1
原创 深度学习优化器Optimizer-SGD、mSGD、AdaGrad、RMSProp、Adam、AdamW
最常用的优化器SGD、mSGD、AdaGrad、RMSProp、Adam、AdamW的介绍和公式,其中AdamW算法是Adam算法的改进,SGD在CNN中还有不错的发挥,但在Transformer中却效果一般,如今Adam和AdamW算法在Transformer模型中有着更为广泛的应用,如Llama、OPT、GPT等,即使还有一些新的如Lion等优化器,但大体上了解以上优化器就足够了。
2023-12-16 21:51:18
1623
原创 stable diffusion model训练遇到的问题【No module named ‘triton‘】
triton, bug, diffusers训练
2023-09-17 10:08:44
6053
原创 [日记]LeetCode算法·二十五——二叉树⑤ AVL树(插入+删除)附代码实现
AVL,二叉平衡树,二叉搜索树,二叉树,Leetcode,算法
2023-05-17 21:47:25
699
原创 [笔记]计算机基础 6 CSAPP Lab5-CacheLab
第6章Cache是读的最快的一章,花了一天,从早上看到晚上,就全看完了,感觉比起之前要简单一些。lab方面,A Part整理清楚框架后,不到一个小时就解决了,A Part花了半天;而B Part顺着自己的思路走,半天处理了32x32,而又花了大半天处理64x64,然后将64x64做完后就觉得不对劲,只好百度,之后就是顺着正规思路再写一遍,总共一个lab花了2-3天。
2023-04-24 21:03:39
981
原创 Pytorch学习(4):Tensor统计、where与gather
文章目录前言一、统计1.范数norm2.max/min/mean/sum/prod3.argmax/argmin/dim/keepdim4.Topk/kthvalue5.比较/eq/equal一、高级操作where/gather1.条件where2.gather总结前言Pytorch学习笔记第四篇,关于Tensor的统计(max、min、mean等)、where、gather。提示:以下是本篇文章正文内容,下面案例可供参考一、统计1.范数norm从目前学习的知识来看,pytorch提供p..
2021-02-19 13:07:34
989
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人