【计算机视觉】如何用传统方法在小样本数据集上实现语义分割模型?
问题描述
深度学习虽然很火热,但是数据量不大的时候,深度学习的性能还是比较差的,最主要的是模型能力太强,学出来之后不能泛化,因此一种可选的方法就是 不要处处都是深度模型,试试返璞归真的传统方法
。
传统方法
基本上传统机器方法最直观的就是分类、回归,而对于计算机视觉中级任务:语义分割
该如何下手呢?一种最直观的想法就是对像素逐个进行分类。那么对于深度模型,常常是端到端的,采用 CNN
进行 深度特征的提取,那么对于传统方法则需要对一个像素进行特征提取,用于构建这个像素的特征向量,然后再用传统方法中的支撑向量机(SVM
)或者随机深林(Random Forest
)来对像素的特征矢量进行分类。其实对于深度模型的语义分割网络实际上也是逐个像素点进行的分类。整个解决思路并没有太大的冲突,差别实际上就是 CNN
这种非手工设计的特征,可能具有更强、更抽象或者更富有语义信息。
所以,传统方法解决方案包括三个步骤,一是选择合适的像素特征描述子,二是选择合适的分类