在计算机视觉任务中摸索domain adaptation and transfer learning,新手入门浅谈心得

本文探讨了在计算机视觉任务中,如何应对domain shift问题,通过domain adaptation(DA)和transfer learning(TL)进行模型迁移。文章介绍了domain的组成,包括输入空间X、输出空间Y及概率分布P(x,y)。讨论了ERM的基本概念,指出最小化训练误差并非目标,真正目标是减小泛化误差。DA和TL旨在解决源域和目标域之间的domain shift,其中TL是一个更广泛的策略,而DA是特定类型的TL。文章最后提及了解决DA和TL的主要手段,如预训练和微调等方法。" 106750057,8419559,使用Zookeeper构建分布式配置中心,"['zookeeper', '分布式系统', '配置管理', '监控', '微服务']

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

文中我们用DA代之domain adaptation,TL代指transfer learning。本人初涉这个领域,若下文心得有误,望各位看官老爷/娘娘海涵。read with caution :)

故事如何讲起呢?

首先明确一个故事背景:我们有Source domain(S)Target domain(T)这两个东西。

domain这个概念太玄乎了,什么叫domain?

domain就是三个要素的组合:

input space X:也即feature space,xi in X可以理解为是一个描述输入图像的vector;

output space Y:也即label space,在classfication任务中,yi in Y可以是0,1(binary classification)或者(1,2,。。。,K)(multi-class classification)

probability distribution between X and Y:从X映射到Y的联合概率分布(P(x,y))。

此处插播一个很基础的背景知识:

  • p(x,y)  is joint probability distribution;
  • p(x|y) & p(y|x) are conditional probability distribution;
  • p(x) & p(y) are marginal probability distribution;

在贝叶斯估计的框架下,这几种概率分布被赋予了新的意义和名字:

  • p(x) is the evidence or data distribution;
  • p(x|y) is the likelihood;
  • p(y|x) is the posterior distribution;后验概率,即在验视feature x之后得到的关于sample的label y的估计&
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值