在论文《action recognition with improved trajectories》中看到fisher vector,所以学习一下。但网上很多的资料我觉得都写的不好,查了一遍,按照自己的认识陈述一下,望大牛指正。

核函数:

先来看一下《统计学习方法》里叙述的核函数的概念,

【CV知识学习】Fisher Vector-LMLPHP

【CV知识学习】Fisher Vector-LMLPHP

可以看到,核函数其实是一个内积,在SVM的公式可以提炼出内积的部分。数据在低维输入空间可能线性不可分,而在高维希尔伯特空间可能线性可分的,因此会经过一个映射函数。事实上,内积中可以理解为相似性即距离。

Fisher核:

Fisher核与Fisher信息矩阵有关,Fisher信息矩阵的意义,在知乎上的答案有了解http://www.zhihu.com/question/26561604

【CV知识学习】Fisher Vector-LMLPHP

【CV知识学习】Fisher Vector-LMLPHP

【CV知识学习】Fisher Vector-LMLPHP

【CV知识学习】Fisher Vector-LMLPHP

【CV知识学习】Fisher Vector-LMLPHP

最后,Fisher核与Fisher信息矩阵有关,得到:【CV知识学习】Fisher Vector-LMLPHP,而I就是信息矩阵,U就是Score Function。

Fisher Vector在图像上的应用:

图像在这里使用GMM去描述,而图像采集的描述子是在全局范围内的,因此,Fisher向量最后描述的也是全局的特征。一般步骤如下:

【CV知识学习】Fisher Vector-LMLPHP

先随机选择数据集,去估计GMM的各个参数。Fisher向量应该是Score函数的聚集,但由于会应用到核函数,所以会乘上Fisher信息矩阵。

GMM模型为:【CV知识学习】Fisher Vector-LMLPHP

其中(熟悉GMM的人都很容易明白吧),

【CV知识学习】Fisher Vector-LMLPHP

根据贝叶斯公式,定义描述子属于第i个高斯模型的概率为:

【CV知识学习】Fisher Vector-LMLPHP

各个参数的Score函数

【CV知识学习】Fisher Vector-LMLPHP

Fisher信息矩阵的近似解为:

【CV知识学习】Fisher Vector-LMLPHP

计算FV向量为:

【CV知识学习】Fisher Vector-LMLPHP

最终的结果为:

【CV知识学习】Fisher Vector-LMLPHP

需要注意的是,参数已经在第一步估计出来了。可以看到FV向量的好处是,它把各个大小不同描述子集转化成大小一致的一个特征向量表述。

从原始特征到FV向量的算法表述如下:

【CV知识学习】Fisher Vector-LMLPHP

其实也没有自己想的东西,本来以为昨晚理解的挺好,今天早上再来想了想,不对啊……直接把知道的写上吧,额,好多博客都没写到点上,哎~~~~~会用就好了~~~~~~~~~~~  T_T

==============  04/12/2016 更========================== 

忽然有点明白了,之前一直在想为什么Fisher Vecotr可以作为特征,首先看了两个blog:知乎专栏CSND

最关键的地方是,fisher vector之所以可以用来做特征分类,还是因为利用了fisher核,注意到它的形式为【CV知识学习】Fisher Vector-LMLPHP,而I就是信息矩阵,U就是Score Function。

而fisher 向量的归一化后的每一项,都是【CV知识学习】Fisher Vector-LMLPHP,即信息矩阵的-1/2次方 * score fucntion。如果两个fisher vector做内积,正好可以得到fisher 核【CV知识学习】Fisher Vector-LMLPHP

其中信息矩阵为【CV知识学习】Fisher Vector-LMLPHP

score function 为【CV知识学习】Fisher Vector-LMLPHP

05-13 01:27