【CFNet】:
Valmadre J, Bertinetto L, Henriques J F, et al. End-to-end representation learning for Correlation Filter based tracking[C].//CVPR2017.
这篇论文中的一些公式推导如下,
一、附录C.1中的公式推导
首先这里有一点和KCF是不同的,这里的数据矩阵X的结构时一列一个样本,所以它的最小二乘就是||X^Tw-y||^2,而在KCF论文中(Sec4.1公式2下面),the data matrix X has one sample per row x_i,所以KCF对应的最小二乘实际上应该写成||Xw-y||^2,下面做详细的推导
首先是CFNet直接求Primal Problem的w:
然后是KCF直接求Primal Problem的w:
最后是CFNet附录C3.1中从公式21到24的推导,也就是Dual Probelm去求解w
二、附录C.2中的推导
这里在X的循环结构到底怎么循环很重要,不能机械照搬KCF,不然公式推不下去。
下面推导公式(30),推导过程用到的一些性质可以直接从下面两个网页查阅:
https://wenku.baidu.com/view/70eecf37dd88d0d233d46aac.html
https://wenku.baidu.com/view/f88fe14d6529647d2628524e.html
三、附录D中从39和40式到41式的推导
多说一句,之所以有上面这个Adjoint,而不是直接令J*(v)=B^Tv,是因为B才实际操作中无法显示的表示出来
具体的说,我们需要的是从/Delta_y{l}去求/Delta_x{l}的映射,但是实际上我们能够得到从/Delta_x{l}去求/Delta_y{l}的映射J,这里设u=/Delta_x{l},v=/Delta_y{l}
即我们只能获得J(u).
而且这个映射J(u)又无法显示的写成J(u)=Bu的形式,(因为一旦有了B,就可以直接去求出J*)
所以用这个Adjoint的方法从J去求J*