上二年级的大儿子一直在喝无乳糖牛奶,最近让他尝试喝正常牛奶,看看反应如何。三天过后,儿子说,好像没反应,我可不可以说我不对乳糖敏感了。
我说,呃,这个问题不简单啊。你知道吗,这在统计学上叫推断。
儿子很好学,居然叫我解释什么叫推断。
 
好吧,那我就来卖弄一下。
 
老早之前,听机器学习的一个podcast,是总结前一年机器学习领域发生什么事情,最后一段P主说: 我们已经总结了这一年,那我们来预测(predict)一下明年吧,不过我觉得说predict不是那么准确,应该是做一下inference比较对。
 
Hmm,我们做机器学习的一般来说,说来说去就是做预测,inference是个什么鬼。
 
推断inference是统计学上的概念。简单的理解,就是从少量的样本的统计结果,得出对总体的结论。
 
比如说有美国总统大选,有调查公司就会对一部分人进行问卷调查,问他们会选谁,然后从根据这个结果,推断出这届总统会是谁。统计学是基于概率论的,当给出结果的时候,会给出confident interval,就是可信度。这个推断做得好不好和样本的选取关系非常大,一句话样本必须有代表性。
 
听上去,和机器学习貌似很像,都差不多是预测个东西嘛。其实还是不一样的,什么才叫预测呢。举一个例子,就看出区别了。
 
比如说我们现在也知道一些样本,知道他们的年龄,性别,工作,收入,居住区域,会选谁。然后,我们从总体(population)中随便找出一个人,并且知道他的年龄,性别,工作,收入,居住区域,我们想知道他会选谁,现在做的就是预测predict。
 
预测,机器学习的定义就是,根据给定的样本,训练模型,用来预测未知的样本。
 
当然机器学习和统计学并不是分开的两学科。很多机器学习的模型是基于统计学的。比如说非常popular的贝叶斯统计模型。对于被观察事件,根据先验知识,建立分布模型,根据观察到的样本得到后验分布模型,然后再用来预测未知样本的概率分布,作出概率最大的预测,并给出可信度。和机器学习中的或回归或分类模型一起,可谓条条大路通罗马。但其实也有有交叉的,比如说最大熵算法其实是建立在以概率论为基础的信息论上的。
 
统计学是非常有意思的数学。 
05-18 11:35