- 博客(665)
- 收藏
- 关注

原创 深入理解深度学习中的【卷积】和 feature map
深入理解深度学习中的卷积和feature map 虽然深度学习的概念已经传遍大街小巷,本文还是说一说CNN中的卷积。 本文主要介绍卷积层的结构。下图显示了CNN中最重要的部分,这部分称之为过滤器(filter)或内核(kernel)。因为TensorFlow官方文档中将这个结构称之为过滤器(filter),故在本文中将统称这个结构为过滤器。如下图所示,过滤器可以将当前层网络上的一个子节点矩
2017-12-09 18:10:18
23734
1

转载 简单易懂的softmax交叉熵损失函数求导
简单易懂的softmax交叉熵损失函数求导 本博客转自:http://m.blog.csdn.net/qian99/article/details/78046329 来写一个softmax求导的推导过程,不仅可以给自己理清思路,还可以造福大众,岂不美哉~ softmax经常被添加在分类任务的神经网络中的输出层,神经网络的反向传播中关键的步
2017-11-21 13:58:34
20731

转载 卷积神经网络中feature map的含义
卷积神经网络中feature map的含义 在每个卷积层,数据都是以三维形式存在的。你可以把它看成许多个二维图片叠在一起,其中每一个称为一个feature map。在输入层,如果是灰度图片,那就只有一个feature map;如果是彩色图片,一般就是3个feature map(红绿蓝)。层与层之间会有若干个卷积核(kernel),上一层和每个feature map跟每个卷积核做卷积,
2017-10-23 09:59:56
31794
4

原创 c\c++中比较两个字符串或string对象是否相等
c\c++中比较两个字符串或string对象是否相等 在写程序的过程中,经常会遇到要比较两个字符串是否相等的情况。如果要比较的对象是char*字符串,则利用int strcmp(const char* s1,const char* s2) 当s1<s2时,返回为负数; 当s1==s2时,返回值= 0; 当s1>s2时,返回正数。 ...
2017-10-16 21:32:18
114881
3
原创 Introduction to Causal Inference中文笔记part1
https://mp.weixin.qq.com/s?__biz=MzI1MjQ2OTQ3Ng==&mid=2247581343&idx=1&sn=3d6d431233b5d385413adba686881d8e&chksm=e9e0b714de973e022d7ce5978a6c339ef8f786a6987779fe353d62ae3f13a008a73eadd42099&scene=27期望与方差的主要性质
2025-05-21 08:28:54
162
原创 请锐评人生中回报率最低的五件事
真正的高回报投入,往往具备「延迟满足+复利效应」双重属性,如同巴菲特所言:「有人之所以能躺下数钱,是因为他们年轻时在数钱的地方种下了树。替代方案:构建「体验型消费」矩阵,将70%可支配收入投入知识获取、健康管理、深度旅行。替代方案:设定「数字安息日」,用完整时段进行需要专注力的事务(如阅读、运动)替代方案:建立「应急资金+技能冗余」双保险,将80%精力投入当下可控领域。替代方案:采用「社交投资组合」理论,将80%精力投入3-5个滋养型关系。成本:斯坦福大学研究显示,重复劳动超50小时/周,创造力下降67%
2025-05-08 13:56:55
134
原创 一些题目记录
Leetcode 编辑距离,最长递增子序列、买卖股票等等,其他的记不清了;实现 MultiHeadSelfAttention,大概 三四次;用 Numpy 或者 List 实现MLP 的前向和反向,4次;Leetcode 反转链表以及衍生的,3次;Leetcode 岛屿数量,大概得五六次;Leetcode 数组中第K大的数,2次;实现 NMS,七八次,很高频;
2025-03-26 00:09:58
286
原创 统计中位数为 K 的子数组
链接:https://blog.csdn.net/weixin_45925735/article/details/129589721。
2025-02-17 23:27:13
117
原创 self-attention(上)李宏毅
a1-a4乘上martix Wq,得到q1-q4,a1-a4乘上martix Wk,得到k1-k4,q2和k1-k4做dot-product操作,得到self-attention score(可能还会经过softmax处理): a21‘,a22‘,a23‘,a24‘,然后各自与v1~v4相乘,然后相加得到b2。然后依次计算b2,b3,b4,所以哪个关联性更大,得到的结果也就越接近那个关联性数据(比如a11’最大,得到的b1也就最接近a11‘,或者说b1的主要构成是由a11’构成)从矩阵角度理解计算过程。
2024-01-07 12:11:22
558
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人