『论文笔记』Angular Loss

三元组添加margin(记为alpha)形式损失函数为:

『论文笔记』Angular Loss

 

 

 将特征归一化,并带入xc=(xp+xa)/2,省略常数项得到:

『论文笔记』Angular Loss

 

考虑log(exp(y1) + exp(y2)) ≥ max(y1, y2),对batch数据的处理整理为:

 

 『论文笔记』Angular Loss

 

 

 Batch整合的推导没深究,看起来是取了对单个anchor而言batch内最hard三元组的上界,作者说思路来源于:Deep metric learning via lifted structured feature embedding。

上一篇:(课内)信安数基quiz2


下一篇:softMax层反向传播实现(未加Loss层)