文章目录
- 解决什么问题
- 本文创新点\贡献
- 前人方法
- 本文IDEA来源
- 方法
- 方法概述
- Alignment
- Prototype learning
- Non-parametric metric learning
- Prototype alignment regularization (PAR)
- 训练
- 实验
- 总结
解决什么问题
少训练样本的分割
本文创新点\贡献
将prototype的提取和无参数的度量学习分开了
优点:
- 不需要额外学习参数,不容易过拟合
啥意思,那一块不需要参数啊,度量学习?如何实现的呢?
- prototype嵌入和预测都是在计算好的特征图上进行的,没有额外的前向传播
- 简单易用,更弱的注释也可以,bbox或涂鸦?这尼玛还能分割了?
亮点
- 利用了prototypes上的度量学习,无参数
- 提出prototypes对齐正则化,充分利用support的知识
- 对于带有弱注释的少样本直接使用
前人方法
Few-shot learning:
- 输入放入神经网络,执行加权最近邻匹配来分类
- 用一个向量特征来表示每个类
- 独立的模组直接学习support特征和query特征的联系
Few-shot segmentation:
- 从support set生成一些用来调整query set的分割处理
- 将提取的support特征和query对方到一起,然后decoder,来生成分割结果
- 使用mask average pool从suppor set里提取前后景信息
本文IDEA来源
Prototypical networks for few-shot learning的延申
方法
方法概述
用同一个backbone来提取support和query的深度特征,然后使用masked average pooling从support的特征将不同的前景物体和背景嵌入不同的prototypes中,每个prototype表示对应的类别,这样query图像的每个的像素通过参考离它的嵌入表达最近的特定类的prototype来标记,得到query的预测mask后;训练的时候,得到mask后,再将刚才提取的query feature和mask作为新的“support set”,将之前的support set作为新的“query set”,再用“support set”对“query set”做一波预测,然后再算一个loss
prototype紧凑且鲁棒的对每个语义类别进行表达;mask标记那块就是无参度量学习,通过和嵌入空间的逐像素匹配来执行分割
算法总览,公式编号和顺序相同
Alignment
执行一个prototype对齐正则化,用query和他的mask建立新的support,然后用这个来预测原始的support set的分割,实验证明能鼓励query的prototype对齐他们的support的prototype,只有训练的时候这么做
反向再推一次,看看是否真的相似
图像说明:
support的嵌入特征是圆形,query图像是三角形,对每个类学习prototype(蓝色和黄色的),query通过在嵌入空间中将他的特征和最近的prototype进行匹配,来进行分割,虚线就是匹配,右图进行了prototype对齐正则化,就是通过从support到query的反向对齐。
Prototype learning
方法的选择:
使用support的mask注释分开学习前景和后景的prototypes,对于什么时候融合mask有两种策略,一种是早融合,一种是晚融合:
- 早:在送入网络提取器之前,把mask和support图片融合
- 晚:分别把mask和提取出来的前/后景的特征融合在一起
作者选择晚输入,能保证两个特征提取器的输入一致性(query是没有mask的)
操作:
给定support set Si={(Ic,k,Mc,k)},用Fc,k表示图片的输出特征图,c表示类别的index,k=1,...,K是support图片的index,c类别的prototype用下式计算:
pc=K1k∑∑x,yL[Mc,k(x,y)=c]∑x,yFc,k(x,y)L[Mc,k(x,y)=c]
其中(x,y)表示空间位置的index,L根绝式子内容输出1还是0
背景的prototype计算:
pbg=CK1c,k∑∑x,yL[Mc,k(x,y)∈Ci]∑x,yFc,k(x,y)L[Mc,k(x,y)∈Ci]
prototype通过无参的度量学习来优化
Non-parametric metric learning
通过计算每个位置的query特征向量和每个support求出的类的protorype的距离来分类,从而实现分割,然后做softmax得到包括背景在内的可能性映射M~q,设置P={pc∣c∈Ci}∪{pbg},Fq是query的特征图,对于每个pj∈P,d 表示距离计算函数,j 表示类别,有:
M~q;j(x,y)=∑pj∈Pexp(−αd(Fq(x,y),pj))exp(−αd(Fq(x,y),pj))
所以最后的mask为:
M~q(x,y)=jargmaxM~q;j(x,y)
d 可以是cosin距离或者平方的欧氏距离
作者做实验发现cosin更稳定更好,可能是因为有边界,参数α直接设置为20,改动这个提升不大
这感觉没什么东西啊,就是计算距离?
分割loss:
Lseg=−N1x,y∑pj∈P∑L[M(x,y)=j]logM~q;j(x,y)
其中Mq是query图片的真实mask,N是空间位置的总数
Prototype alignment regularization (PAR)
使用公式1和公式2来根据query特征来获得prototypes:P={pc∣c∈Ci}∪{pbg} ,然后用无参度量学习来预测support图片的mask,然后计算LPAR
M~c,k;j(x,y)=∑pj∈Pexp(−αd(Fq(x,y),pj))exp(−αd(Fq(x,y),pj))
LPAR=−CKN1c,k,x,y∑pj∈P∑L[Mq(x,y)=j]logM~q;j(x,y)
为什么这里每个像素是CK呢,而query不是?
答:C是类别数,K是图像数量,用为query已经做了argmax操作,所以类别只剩选出来的1了,因此C为1,而本身只有一张图片,所以K也是1
总loss:
L=Lsge+λLPAR
λ设为1,其他的参数也没啥提升
训练
VGG-16做backbone,前五个不变,后面移除,maxpool4的步长为1,为了保持大的分辨率,为了增加感受野,conv5用膨胀卷积代替,膨胀设为2,
实验
实验发现即使每个class只有一个support图像,也能提供稳定的分割结果。
PAR的分析
使用后计算的平均距离变小,收敛更快
Generalization to weaker annotations
即使很弱,prototypes效果也不错,能提供好的分割效果
简单的轮廓和bbox的效果也不错
总结
第一次看这一块的论文,对于这一块的方法也不太了解,这个反向对齐操作看起来蛮亮的
做实验试过bbox和bbox的特征比较做分类,然而如果query是bbox的特征,那么就算提取support的mask也没什么提升,或许做分割的时候,逐像素对比的时候使用support的效果更好一点?
KirutoCode 发布了63 篇原创文章 · 获赞 2 · 访问量 7988 私信 关注