Neural Network

Residual Unit:

yl=H(xl)+F(xl,Wl)
xl+1=f(yl)

xl and xl+1 is the input and output of l -th residual unit
f is a RELU function
h(xl)=xl is an identity mapping

Log loss:
L(y,p(y,x))=log(p(y | x))
f(x)=11+ewTx
y{0,1}

p(Y=1 | x)=f(x)
p(Y=0 | x)=1f(x)

似然函数
l(w)=Ni=0p(yi | xi)yi[1p(yi | xi)](1yi)

取对数
L(w)=Ni=0(yilog(p(yi | xi))+(1yi)log(1p(yi | xi))

最大化似然函数 <=> 最小化负似然函数
L(w,x)=Ni=0(yilog(p(yi | xi))(1yi)log(1p(yi | xi))

加L1 正则
J(w,x)=Ni=0(yilog(p(yi | xi))(1yi)log(1p(yi | xi))+12r||w||1

加L2正则
J(w,x)=Ni=0(yilog(p(yi | xi))(1yi)log(1p(yi | xi))+12r||w||2

p(y | x,w)=

x=b±b24ac2a

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值