【论文精读系列】之《Learning Background-Aware Correlation Filters for Visual Tracking》其二
论文地址:《Learning Background-Aware Correlation Filters for Visual Tracking》
注:该篇博客中,为了明确矩阵或者向量的形状,常出现诸如 ( A ) m , n (\boldsymbol A)_{m,n} (A)m,n 或者 ( b ) n , 1 (\boldsymbol b)_{n,1} (b)n,1 的表示,则表明 A \boldsymbol A A 是一个 m m m 行 n n n 列的矩阵,而 b \boldsymbol b b 则是 n n n 行 1 列的列向量。
3 Correlation Filters(相关滤波器)
3.1 当前帧单张图像计算公式
通过最小化以下目标,在空域中学习多通道相关滤波器被公式化:
E
(
h
)
=
1
2
∥
y
−
∑
k
=
1
K
h
k
⋆
x
k
∥
2
2
+
λ
2
∑
k
=
1
K
∥
h
k
∥
2
2
(1)
E(\boldsymbol h)=\frac{1}{2}{\lVert{\boldsymbol y}-\sum_{k=1}^K{\boldsymbol h}_k \star{\boldsymbol x}_k\rVert_2^2}+\frac{\lambda}{2}\sum_{k=1}^K\lVert{\boldsymbol h}_k\rVert_2^2\tag{1}
E(h)=21∥y−k=1∑Khk⋆xk∥22+2λk=1∑K∥hk∥22(1) 在公式(1)中:
x
\boldsymbol x
x 表示拥有
D
D
D 个像素的单帧图像,将其向量化(即图像矩阵拉成一条向量)之后,写成
D
D
D 行 1 列的列向量,对于多通道图像
x
\boldsymbol x
x,其每一个特征通道
x
k
{\boldsymbol x}_k
xk 都是
D
D
D 行 1 列的列向量,总通道数为
K
K
K 个。
为了对多通道图像的每一个通道进行滤波,因此滤波器
h
\boldsymbol h
h 也有
K
K
K 个,其中第
k
k
k 个通道上的滤波器
h
k
{\boldsymbol h}_k
hk 也是一个
D
D
D 行 1 列的列向量。
y
\boldsymbol y
y 表示期望的相关响应,也是一个
D
D
D 行 1 列的列向量。
λ
\lambda
λ 为正则化参数。
符号
⋆
\star
⋆ 是空域相关算子,故
∑
k
=
1
K
h
k
⋆
x
k
\sum_{k=1}^K{\boldsymbol h}_k \star{\boldsymbol x}_k
∑k=1Khk⋆xk 可以写成:
(
[
h
k
(
1
)
h
k
(
2
)
⋮
h
k
(
D
)
]
⋆
[
x
k
(
1
)
x
k
(
2
)
⋮
x
k
(
D
)
]
)
k
=
1
+
(
[
h
k
(
1
)
h
k
(
2
)
⋮
h
k
(
D
)
]
⋆
[
x
k
(
1
)
x
k
(
2
)
⋮
x
k
(
D
)
]
)
k
=
2
+
⋯
+
(
[
h
k
(
1
)
h
k
(
2
)
⋮
h
k
(
D
)
]
⋆
[
x
k
(
1
)
x
k
(
2
)
⋮
x
k
(
D
)
]
)
k
=
K
\begin{pmatrix}\begin{bmatrix} h_k(1) \\ h_k(2) \\ \vdots \\ h_k(D) \end{bmatrix} \star \begin{bmatrix} x_k(1) \\ x_k(2) \\ \vdots \\ x_k(D) \end{bmatrix}\end{pmatrix}_{k=1}+\begin{pmatrix}\begin{bmatrix} h_k(1) \\ h_k(2) \\ \vdots \\ h_k(D) \end{bmatrix} \star \begin{bmatrix} x_k(1) \\ x_k(2) \\ \vdots \\ x_k(D) \end{bmatrix}\end{pmatrix}_{k=2}+\cdots+\begin{pmatrix}\begin{bmatrix} h_k(1) \\ h_k(2) \\ \vdots \\ h_k(D) \end{bmatrix} \star \begin{bmatrix} x_k(1) \\ x_k(2) \\ \vdots \\ x_k(D) \end{bmatrix}\end{pmatrix}_{k=K}
⎝⎜⎜⎜⎛⎣⎢⎢⎢⎡hk(1)hk(2)⋮hk(D)⎦⎥⎥⎥⎤⋆⎣⎢⎢⎢⎡xk(1)xk(2)⋮xk(D)⎦⎥⎥⎥⎤⎠⎟⎟⎟⎞k=1+⎝⎜⎜⎜⎛⎣⎢⎢⎢⎡hk(1)hk(2)⋮hk(D)⎦⎥⎥⎥⎤⋆⎣⎢⎢⎢⎡xk(1)xk(2)⋮xk(D)⎦⎥⎥⎥⎤⎠⎟⎟⎟⎞k=2+⋯+⎝⎜⎜⎜⎛⎣⎢⎢⎢⎡hk(1)hk(2)⋮hk(D)⎦⎥⎥⎥⎤⋆⎣⎢⎢⎢⎡xk(1)xk(2)⋮xk(D)⎦⎥⎥⎥⎤⎠⎟⎟⎟⎞k=K 补充说明1(开始):
相关操作定义如下:
r
h
k
x
k
(
m
)
≜
∑
n
=
−
∞
∞
h
k
(
n
)
x
k
(
n
−
m
)
=
∑
n
=
−
∞
∞
h
k
(
n
+
m
)
x
k
(
n
)
r_{h_kx_k}(m)\triangleq \sum_{n=-\infty}^{\infty}h_k(n)x_k(n-m)=\sum_{n=-\infty}^{\infty}h_k(n+m)x_k(n)
rhkxk(m)≜n=−∞∑∞hk(n)xk(n−m)=n=−∞∑∞hk(n+m)xk(n)
r
x
k
h
k
(
m
)
≜
∑
n
=
−
∞
∞
x
k
(
n
)
h
k
(
n
−
m
)
=
r
h
k
x
k
(
−
m
)
r_{x_kh_k}(m)\triangleq \sum_{n=-\infty}^{\infty}x_k(n)h_k(n-m)=r_{h_kx_k}(-m)
rxkhk(m)≜n=−∞∑∞xk(n)hk(n−m)=rhkxk(−m)
r
h
k
x
k
(
m
)
=
h
k
(
m
)
∗
x
k
(
−
m
)
r_{h_kx_k}(m)=h_k(m)\ast x_k(-m)
rhkxk(m)=hk(m)∗xk(−m) 其中
≜
\triangleq
≜ 表示 “定义”,
∗
\ast
∗ 表示卷积操作。
卷积操作定义如下:
h
k
(
n
)
∗
x
k
(
n
)
≜
∑
m
=
−
∞
∞
h
k
(
m
)
x
k
(
n
−
m
)
h_k(n)\ast x_k(n)\triangleq \sum_{m=-\infty}^{\infty}h_k(m)x_k(n-m)
hk(n)∗xk(n)≜m=−∞∑∞hk(m)xk(n−m)计算步骤:反褶、移位、相乘、求和。
补充说明1(结束)
由上述补充说明可知:
(
h
k
⋆
x
k
)
D
,
1
({\boldsymbol h}_k \star{\boldsymbol x}_k)_{D,1}
(hk⋆xk)D,1 ,因此
(
∑
k
=
1
K
h
k
⋆
x
k
)
D
,
1
(\sum_{k=1}^K{\boldsymbol h}_k \star{\boldsymbol x}_k)_{D,1}
(∑k=1Khk⋆xk)D,1 ,其与
(
y
)
D
,
1
(\boldsymbol y)_{D,1}
(y)D,1 的尺寸一致,因此可以列向量相减并求取 2-范数的平方。
3.2 当前帧多张图像计算公式
再次考虑上述的相关运算
h
k
⋆
x
k
{\boldsymbol h}_k \star{\boldsymbol x}_k
hk⋆xk ,我们有:
r
h
k
x
k
(
m
)
=
(
h
k
⋆
x
k
)
(
m
)
≜
∑
n
=
−
∞
∞
h
k
(
n
)
x
k
(
n
−
m
)
r_{h_kx_k}(m)=({\boldsymbol h}_k \star{\boldsymbol x}_k)(m)\triangleq \sum_{n=-\infty}^{\infty}h_k(n)x_k(n-m)
rhkxk(m)=(hk⋆xk)(m)≜n=−∞∑∞hk(n)xk(n−m) 考虑到
h
k
{\boldsymbol h}_k
hk 和
x
k
{\boldsymbol x}_k
xk 均为有限长(长为
D
D
D)的序列(列向量),有:
r
h
k
x
k
(
0
)
=
∑
n
=
−
∞
∞
h
k
(
n
)
x
k
(
n
−
0
)
=
∑
n
=
1
D
h
k
(
n
)
x
k
(
n
)
r_{h_kx_k}(0)=\sum_{n=-\infty}^{\infty}h_k(n)x_k(n-0)=\sum_{n=1}^Dh_k(n)x_k(n)
rhkxk(0)=n=−∞∑∞hk(n)xk(n−0)=n=1∑Dhk(n)xk(n) 上式即为
h
k
T
x
k
{\boldsymbol h}_k^T {\boldsymbol x}_k
hkTxk ;
r
h
k
x
k
(
1
)
=
∑
n
=
−
∞
∞
h
k
(
n
)
x
k
(
n
−
1
)
=
∑
n
=
1
D
h
k
(
n
)
x
k
(
n
−
1
)
r_{h_kx_k}(1)=\sum_{n=-\infty}^{\infty}h_k(n)x_k(n-1)=\sum_{n=1}^Dh_k(n)x_k(n-1)
rhkxk(1)=n=−∞∑∞hk(n)xk(n−1)=n=1∑Dhk(n)xk(n−1) 对上式最右端而言,显然当
n
=
1
n=1
n=1 时,有
x
k
(
0
)
x_k(0)
xk(0) 出现,同时
x
k
(
D
)
x_k(D)
xk(D) 没有参与运算;
r
h
k
x
k
(
2
)
=
∑
n
=
−
∞
∞
h
k
(
n
)
x
k
(
n
−
2
)
=
∑
n
=
1
D
h
k
(
n
)
x
k
(
n
−
2
)
r_{h_kx_k}(2)=\sum_{n=-\infty}^{\infty}h_k(n)x_k(n-2)=\sum_{n=1}^Dh_k(n)x_k(n-2)
rhkxk(2)=n=−∞∑∞hk(n)xk(n−2)=n=1∑Dhk(n)xk(n−2) 对上式最右端而言,显然当
n
=
1
,
2
n=1,2
n=1,2 时,有
x
k
(
−
1
)
,
x
k
(
0
)
x_k(-1),x_k(0)
xk(−1),xk(0) 出现,同时
x
k
(
D
−
1
)
,
x
k
(
D
)
x_k(D-1),x_k(D)
xk(D−1),xk(D) 没有参与运算;
r
h
k
x
k
(
D
−
1
)
=
∑
n
=
−
∞
∞
h
k
(
n
)
x
k
(
n
+
1
−
D
)
=
∑
n
=
1
D
h
k
(
n
)
x
k
(
n
+
1
−
D
)
r_{h_kx_k}(D-1)=\sum_{n=-\infty}^{\infty}h_k(n)x_k(n+1-D)=\sum_{n=1}^Dh_k(n)x_k(n+1-D)
rhkxk(D−1)=n=−∞∑∞hk(n)xk(n+1−D)=n=1∑Dhk(n)xk(n+1−D) 对上式最右端而言,显然当
n
=
1
,
2
,
⋯
,
D
−
1
n=1,2,\cdots,D-1
n=1,2,⋯,D−1 时,有
x
k
(
2
−
D
)
,
x
k
(
3
−
D
)
,
⋯
,
x
k
(
0
)
x_k(2-D),x_k(3-D),\cdots,x_k(0)
xk(2−D),xk(3−D),⋯,xk(0) 出现,同时
x
k
(
2
)
,
x
k
(
3
)
,
⋯
,
x
k
(
D
)
x_k(2),x_k(3),\cdots,x_k(D)
xk(2),xk(3),⋯,xk(D) 没有参与运算;
可以从两个角度考虑这个问题:
① 数学角度:为了保证表达式在数学上的完整性,同时不失相关性的含义,可以使用没有参与运算的值代替缺失的值,具体来讲如下:
对于
r
h
k
x
k
(
0
)
r_{h_kx_k}(0)
rhkxk(0) :不作调整;
对于
r
h
k
x
k
(
1
)
r_{h_kx_k}(1)
rhkxk(1) :使用没有参与运算的
x
k
(
D
)
x_k(D)
xk(D) 替代缺失的
x
k
(
0
)
x_k(0)
xk(0) ;
对于
r
h
k
x
k
(
2
)
r_{h_kx_k}(2)
rhkxk(2) :使用没有参与运算的
x
k
(
D
−
1
)
,
x
k
(
D
)
x_k(D-1),x_k(D)
xk(D−1),xk(D) 依次替代缺失的
x
k
(
−
1
)
,
x
k
(
0
)
x_k(-1),x_k(0)
xk(−1),xk(0) ;
对于
r
h
k
x
k
(
D
−
1
)
r_{h_kx_k}(D-1)
rhkxk(D−1) :使用没有参与运算的
x
k
(
2
)
,
x
k
(
3
)
,
⋯
,
x
k
(
D
)
x_k(2),x_k(3),\cdots,x_k(D)
xk(2),xk(3),⋯,xk(D) 依次替代缺失的
x
k
(
2
−
D
)
,
x
k
(
3
−
D
)
,
⋯
,
x
k
(
0
)
x_k(2-D),x_k(3-D),\cdots,x_k(0)
xk(2−D),xk(3−D),⋯,xk(0) ;
② 相关滤波角度:这正是相关滤波所采用的循环移位操作:每次将数组(向量
x
k
\boldsymbol x_k
xk)的最后一个元素提至数组最前面,并与另外一个数组(向量
h
k
\boldsymbol h_k
hk)对应元素相乘再加和(即向量内积运算)。
不失一般性,记对
x
k
\boldsymbol x_k
xk 循环移位操作符为
[
Δ
τ
j
]
[\Delta{\boldsymbol\tau}_j]
[Δτj],写成
x
k
[
Δ
τ
j
]
\boldsymbol x_k[\Delta{\boldsymbol\tau}_j]
xk[Δτj] ,其中
j
=
1
,
2
,
⋯
,
D
j=1,2,\cdots,D
j=1,2,⋯,D。
具体来讲如下:
r
h
k
x
k
(
0
)
=
h
k
T
x
k
[
Δ
τ
1
]
r_{h_kx_k}(0)=\boldsymbol h_k^T\boldsymbol x_k[\Delta{\boldsymbol\tau}_1]
rhkxk(0)=hkTxk[Δτ1],如下表:
元素1 | 元素2 | 元素3 | ⋯ \cdots ⋯ | 元素D-2 | 元素D-1 | 元素D |
---|---|---|---|---|---|---|
h k ( 1 ) h_k(1) hk(1) | h k ( 2 ) h_k(2) hk(2) | h k ( 3 ) h_k(3) hk(3) | ⋯ \cdots ⋯ | h k ( D − 2 ) h_k(D-2) hk(D−2) | h k ( D − 1 ) h_k(D-1) hk(D−1) | h k ( D ) h_k(D) hk(D) |
x k ( 1 ) x_k(1) xk(1) | x k ( 2 ) x_k(2) xk(2) | x k ( 3 ) x_k(3) xk(3) | ⋯ \cdots ⋯ | x k ( D − 2 ) x_k(D-2) xk(D−2) | x k ( D − 1 ) x_k(D-1) xk(D−1) | x k ( D ) x_k(D) xk(D) |
r h k x k ( 1 ) = h k T x k [ Δ τ 2 ] r_{h_kx_k}(1)=\boldsymbol h_k^T\boldsymbol x_k[\Delta{\boldsymbol\tau}_2] rhkxk(1)=hkTxk[Δτ2],如下表:
元素1 | 元素2 | 元素3 | ⋯ \cdots ⋯ | 元素D-2 | 元素D-1 | 元素D |
---|---|---|---|---|---|---|
h k ( 1 ) h_k(1) hk(1) | h k ( 2 ) h_k(2) hk(2) | h k ( 3 ) h_k(3) hk(3) | ⋯ \cdots ⋯ | h k ( D − 2 ) h_k(D-2) hk(D−2) | h k ( D − 1 ) h_k(D-1) hk(D−1) | h k ( D ) h_k(D) hk(D) |
x k ( D ) x_k(D) xk(D) | x k ( 1 ) x_k(1) xk(1) | x k ( 2 ) x_k(2) xk(2) | ⋯ \cdots ⋯ | x k ( D − 3 ) x_k(D-3) xk(D−3) | x k ( D − 2 ) x_k(D-2) xk(D−2) | x k ( D − 1 ) x_k(D-1) xk(D−1) |
r h k x k ( 2 ) = h k T x k [ Δ τ 3 ] r_{h_kx_k}(2)=\boldsymbol h_k^T\boldsymbol x_k[\Delta{\boldsymbol\tau}_3] rhkxk(2)=hkTxk[Δτ3],如下表:
元素1 | 元素2 | 元素3 | ⋯ \cdots ⋯ | 元素D-2 | 元素D-1 | 元素D |
---|---|---|---|---|---|---|
h k ( 1 ) h_k(1) hk(1) | h k ( 2 ) h_k(2) hk(2) | h k ( 3 ) h_k(3) hk(3) | ⋯ \cdots ⋯ | h k ( D − 2 ) h_k(D-2) hk(D−2) | h k ( D − 1 ) h_k(D-1) hk(D−1) | h k ( D ) h_k(D) hk(D) |
x k ( D − 1 ) x_k(D-1) xk(D−1) | x k ( D ) x_k(D) xk(D) | x k ( 1 ) x_k(1) xk(1) | ⋯ \cdots ⋯ | x k ( D − 4 ) x_k(D-4) xk(D−4) | x k ( D − 3 ) x_k(D-3) xk(D−3) | x k ( D − 2 ) x_k(D-2) xk(D−2) |
r h k x k ( D − 2 ) = h k T x k [ Δ τ D − 1 ] r_{h_kx_k}(D-2)=\boldsymbol h_k^T\boldsymbol x_k[\Delta{\boldsymbol\tau}_{D-1}] rhkxk(D−2)=hkTxk[ΔτD−1],如下表:
元素1 | 元素2 | 元素3 | ⋯ \cdots ⋯ | 元素D-2 | 元素D-1 | 元素D |
---|---|---|---|---|---|---|
h k ( 1 ) h_k(1) hk(1) | h k ( 2 ) h_k(2) hk(2) | h k ( 3 ) h_k(3) hk(3) | ⋯ \cdots ⋯ | h k ( D − 2 ) h_k(D-2) hk(D−2) | h k ( D − 1 ) h_k(D-1) hk(D−1) | h k ( D ) h_k(D) hk(D) |
x k ( 3 ) x_k(3) xk(3) | x k ( 4 ) x_k(4) xk(4) | x k ( 5 ) x_k(5) xk(5) | ⋯ \cdots ⋯ | x k ( D ) x_k(D) xk(D) | x k ( 1 ) x_k(1) xk(1) | x k ( 2 ) x_k(2) xk(2) |
r h k x k ( D − 1 ) = h k T x k [ Δ τ D ] r_{h_kx_k}(D-1)=\boldsymbol h_k^T\boldsymbol x_k[\Delta{\boldsymbol\tau}_{D}] rhkxk(D−1)=hkTxk[ΔτD],如下表:
元素1 | 元素2 | 元素3 | ⋯ \cdots ⋯ | 元素D-2 | 元素D-1 | 元素D |
---|---|---|---|---|---|---|
h k ( 1 ) h_k(1) hk(1) | h k ( 2 ) h_k(2) hk(2) | h k ( 3 ) h_k(3) hk(3) | ⋯ \cdots ⋯ | h k ( D − 2 ) h_k(D-2) hk(D−2) | h k ( D − 1 ) h_k(D-1) hk(D−1) | h k ( D ) h_k(D) hk(D) |
x k ( 2 ) x_k(2) xk(2) | x k ( 3 ) x_k(3) xk(3) | x k ( 4 ) x_k(4) xk(4) | ⋯ \cdots ⋯ | x k ( D − 1 ) x_k(D-1) xk(D−1) | x k ( D ) x_k(D) xk(D) | x k ( 1 ) x_k(1) xk(1) |
并且可以看出
r
h
k
x
k
(
0
)
=
r
h
k
x
k
(
D
)
r_{h_kx_k}(0)=r_{h_kx_k}(D)
rhkxk(0)=rhkxk(D),即开始下一轮循环,因此公式(1)中的相关运算结果可表示如下:
h
k
⋆
x
k
=
[
r
h
k
x
k
(
0
)
r
h
k
x
k
(
1
)
⋮
r
h
k
x
k
(
D
−
1
)
]
=
[
h
k
T
x
k
[
Δ
τ
1
]
h
k
T
x
k
[
Δ
τ
2
]
⋮
h
k
T
x
k
[
Δ
τ
D
]
]
{\boldsymbol h}_k \star{\boldsymbol x}_k=\begin{bmatrix} r_{h_kx_k}(0)\\ r_{h_kx_k}(1) \\ \vdots \\ r_{h_kx_k}(D-1) \end{bmatrix}=\begin{bmatrix} \boldsymbol h_k^T\boldsymbol x_k[\Delta{\boldsymbol\tau}_1]\\ \boldsymbol h_k^T\boldsymbol x_k[\Delta{\boldsymbol\tau}_2] \\ \vdots \\ \boldsymbol h_k^T\boldsymbol x_k[\Delta{\boldsymbol\tau}_D] \end{bmatrix}
hk⋆xk=⎣⎢⎢⎢⎡rhkxk(0)rhkxk(1)⋮rhkxk(D−1)⎦⎥⎥⎥⎤=⎣⎢⎢⎢⎡hkTxk[Δτ1]hkTxk[Δτ2]⋮hkTxk[ΔτD]⎦⎥⎥⎥⎤ 再考虑所有的
K
K
K 个通道:
(
∑
k
=
1
K
h
k
⋆
x
k
)
D
,
1
=
[
h
1
T
x
1
[
Δ
τ
1
]
+
h
2
T
x
2
[
Δ
τ
1
]
+
⋯
+
h
K
T
x
K
[
Δ
τ
1
]
h
1
T
x
1
[
Δ
τ
2
]
+
h
2
T
x
2
[
Δ
τ
2
]
+
⋯
+
h
K
T
x
K
[
Δ
τ
2
]
⋮
h
1
T
x
1
[
Δ
τ
D
]
+
h
2
T
x
2
[
Δ
τ
D
]
+
⋯
+
h
K
T
x
K
[
Δ
τ
D
]
]
(\sum_{k=1}^K{\boldsymbol h}_k \star{\boldsymbol x}_k)_{D,1}=\begin{bmatrix} \boldsymbol h_1^T\boldsymbol x_1[\Delta{\boldsymbol\tau}_1]+\boldsymbol h_2^T\boldsymbol x_2[\Delta{\boldsymbol\tau}_1]+\cdots+\boldsymbol h_K^T\boldsymbol x_K[\Delta{\boldsymbol\tau}_1]\\ \boldsymbol h_1^T\boldsymbol x_1[\Delta{\boldsymbol\tau}_2]+\boldsymbol h_2^T\boldsymbol x_2[\Delta{\boldsymbol\tau}_2]+\cdots+\boldsymbol h_K^T\boldsymbol x_K[\Delta{\boldsymbol\tau}_2] \\ \vdots \\ \boldsymbol h_1^T\boldsymbol x_1[\Delta{\boldsymbol\tau}_D]+\boldsymbol h_2^T\boldsymbol x_2[\Delta{\boldsymbol\tau}_D]+\cdots+\boldsymbol h_K^T\boldsymbol x_K[\Delta{\boldsymbol\tau}_D] \end{bmatrix}
(k=1∑Khk⋆xk)D,1=⎣⎢⎢⎢⎡h1Tx1[Δτ1]+h2Tx2[Δτ1]+⋯+hKTxK[Δτ1]h1Tx1[Δτ2]+h2Tx2[Δτ2]+⋯+hKTxK[Δτ2]⋮h1Tx1[ΔτD]+h2Tx2[ΔτD]+⋯+hKTxK[ΔτD]⎦⎥⎥⎥⎤ 则有
(
y
)
D
,
1
−
(
∑
k
=
1
K
h
k
⋆
x
k
)
D
,
1
=
[
y
(
1
)
−
(
h
1
T
x
1
[
Δ
τ
1
]
+
h
2
T
x
2
[
Δ
τ
1
]
+
⋯
+
h
K
T
x
K
[
Δ
τ
1
]
)
y
(
2
)
−
(
h
1
T
x
1
[
Δ
τ
2
]
+
h
2
T
x
2
[
Δ
τ
2
]
+
⋯
+
h
K
T
x
K
[
Δ
τ
2
]
)
⋮
y
(
D
)
−
(
h
1
T
x
1
[
Δ
τ
D
]
+
h
2
T
x
2
[
Δ
τ
D
]
+
⋯
+
h
K
T
x
K
[
Δ
τ
D
]
)
]
(\boldsymbol y)_{D,1}-(\sum_{k=1}^K{\boldsymbol h}_k \star{\boldsymbol x}_k)_{D,1}=\begin{bmatrix} y(1)-(\boldsymbol h_1^T\boldsymbol x_1[\Delta{\boldsymbol\tau}_1]+\boldsymbol h_2^T\boldsymbol x_2[\Delta{\boldsymbol\tau}_1]+\cdots+\boldsymbol h_K^T\boldsymbol x_K[\Delta{\boldsymbol\tau}_1])\\ y(2)-(\boldsymbol h_1^T\boldsymbol x_1[\Delta{\boldsymbol\tau}_2]+\boldsymbol h_2^T\boldsymbol x_2[\Delta{\boldsymbol\tau}_2]+\cdots+\boldsymbol h_K^T\boldsymbol x_K[\Delta{\boldsymbol\tau}_2])\\ \vdots \\ y(D)-(\boldsymbol h_1^T\boldsymbol x_1[\Delta{\boldsymbol\tau}_D]+\boldsymbol h_2^T\boldsymbol x_2[\Delta{\boldsymbol\tau}_D]+\cdots+\boldsymbol h_K^T\boldsymbol x_K[\Delta{\boldsymbol\tau}_D])\end{bmatrix}
(y)D,1−(k=1∑Khk⋆xk)D,1=⎣⎢⎢⎢⎡y(1)−(h1Tx1[Δτ1]+h2Tx2[Δτ1]+⋯+hKTxK[Δτ1])y(2)−(h1Tx1[Δτ2]+h2Tx2[Δτ2]+⋯+hKTxK[Δτ2])⋮y(D)−(h1Tx1[ΔτD]+h2Tx2[ΔτD]+⋯+hKTxK[ΔτD])⎦⎥⎥⎥⎤ 于是公式(1)中的 2-范数的平方可以写成:
∥
y
−
∑
k
=
1
K
h
k
⋆
x
k
∥
2
2
=
∑
j
=
1
D
(
y
(
j
)
−
∑
k
=
1
K
h
k
T
x
k
[
Δ
τ
j
]
)
2
{\lVert{\boldsymbol y}-\sum_{k=1}^K{\boldsymbol h}_k \star{\boldsymbol x}_k\rVert_2^2}=\sum_{j=1}^D\begin{pmatrix}y(j)-\sum_{k=1}^K\boldsymbol h_k^T\boldsymbol x_k[\Delta{\boldsymbol\tau}_j]\end{pmatrix}^2
∥y−k=1∑Khk⋆xk∥22=j=1∑D(y(j)−∑k=1KhkTxk[Δτj])2 最终公式(1)可以改写成:
E
(
h
)
=
1
2
∑
j
=
1
D
(
y
(
j
)
−
∑
k
=
1
K
h
k
T
x
k
[
Δ
τ
j
]
)
2
+
λ
2
∑
k
=
1
K
∥
h
k
∥
2
2
(2)
E(\boldsymbol h)=\frac{1}{2}{\sum_{j=1}^D\begin{pmatrix}y(j)-\sum_{k=1}^K\boldsymbol h_k^T\boldsymbol x_k[\Delta{\boldsymbol\tau}_j]\end{pmatrix}^2}+\frac{\lambda}{2}\sum_{k=1}^K\lVert{\boldsymbol h}_k\rVert_2^2\tag{2}
E(h)=21j=1∑D(y(j)−∑k=1KhkTxk[Δτj])2+2λk=1∑K∥hk∥22(2) 补充说明2(开始):
论文中的公式(2)如下
E
(
h
)
=
1
2
∑
j
=
1
D
∥
y
(
j
)
−
∑
k
=
1
K
h
k
T
x
k
[
Δ
τ
j
]
∥
2
2
+
λ
2
∑
k
=
1
K
∥
h
k
∥
2
2
(2)
E(\boldsymbol h)=\frac{1}{2}{\sum_{j=1}^D\lVert y(j)-\sum_{k=1}^K\boldsymbol h_k^T\boldsymbol x_k[\Delta{\boldsymbol\tau}_j]\rVert_2^2}+\frac{\lambda}{2}\sum_{k=1}^K\lVert{\boldsymbol h}_k\rVert_2^2\tag{2}
E(h)=21j=1∑D∥y(j)−k=1∑KhkTxk[Δτj]∥22+2λk=1∑K∥hk∥22(2) 原论文公式与我们推得的公式写法不同,这是因为
y
(
j
)
y(j)
y(j) 是一个数值(而非向量),
∑
k
=
1
K
h
k
T
x
k
[
Δ
τ
j
]
\sum_{k=1}^K\boldsymbol h_k^T\boldsymbol x_k[\Delta{\boldsymbol\tau}_j]
∑k=1KhkTxk[Δτj] 也是一个数值(而非向量),这样一个数值减去一个数值,肯定还是一个数值,对这样一个数值求取 2-范数的平方,其结果为
∥
y
(
j
)
−
∑
k
=
1
K
h
k
T
x
k
[
Δ
τ
j
]
∥
2
2
=
(
y
(
j
)
−
∑
k
=
1
K
h
k
T
x
k
[
Δ
τ
j
]
)
2
\lVert y(j)-\sum_{k=1}^K\boldsymbol h_k^T\boldsymbol x_k[\Delta{\boldsymbol\tau}_j]\rVert_2^2=\begin{pmatrix}y(j)-\sum_{k=1}^K\boldsymbol h_k^T\boldsymbol x_k[\Delta{\boldsymbol\tau}_j]\end{pmatrix}^2
∥y(j)−k=1∑KhkTxk[Δτj]∥22=(y(j)−∑k=1KhkTxk[Δτj])2 因此原论文公式与我们推得的公式等价。
补充说明2(结束)
The main drawback of Eq. 2 is learning a correlation filter/detector from D−1 circular shifted foreground patches which are generated through the [∆τj] operator. This trains a filter which perfectly discriminates the foreground target from its shifted examples. As mentioned earlier, this, however, increases the risk of over-fitting and limits the potential of the filter to classify the target from real non-target patches (Fig. 1 (a)). For generic object detection task, this drawback can be significantly diminished by exploiting a huge amount of positive (pedestrian) and negative (non-pedestrian) patches to train a well-generalized filter/detector. This, however, isnotpractical for the task of visual tracking. The target is the only positive sample available at the training time and gathering positive and negative examples from a pre-collected training set for each individual target is infeasible. Fortunately, the target comes with a large surrounding background which can be used as negative samples at the training stage. We propose the method of background-aware correlation filters to directly learn more robust and well-generalized CF tracker from background patches (Fig. 1 (b)). |
公式(2)的主要缺点是通过循环移位算子,从前景的 D-1 个循环移位块中学习相关滤波器/检测器。虽然这训练了一个能完美地从移位样本中区分前景目标的滤波器,但是,如前所述,这增加了过拟合的风险,并限制了过滤器将目标与真实的非目标图像块区分的可能性(图1 (a))。对于一般的目标检测任务,可以通过利用大量的正(行人)和负(非行人)图像块来训练一个具有很好泛化性能的滤波器/检测器,显著减少这一缺点的影响。然而,这对于视觉跟踪的任务是不实际的。目标是训练时唯一可用的正样本,从预先收集的训练集中为每个单个目标收集正和负样本是不可行的。幸运的是,目标带有较大的周围背景,可以在训练阶段用作负样本。我们提出了背景感知相关滤波器的方法,以直接从背景块中学习更鲁棒和更一般化的相关滤波跟踪器(图1 (b))。 |
参考链接:
向量与矩阵的范数(比较1-范数、2-范数、无穷范数、p-范数、L0范数 和 L1范数等)
【目标跟踪: 相关滤波器 三】循环矩阵
机器学习总结(一):线性回归、岭回归、Lasso回归
卷积、互相关与自相关