一、概述
该书的链接,高清版:https://pan.baidu.com/s/1edN9WtyFlZRSILvL_Q3yqg 提取码:ulxx
人工智能是通过机器模拟人类认知行为的技术。
下面的链接是对人工智能技术的介绍和一些分类:
一张图解释人工智能、机器学习、深度学习三者关系
二、书籍摘录
第一章 – 介绍
- 人工智能是通过机器模拟人类认知行为的技术。
- 机器学习方法:从现有的数据中学习数据中蕴含的规律和判断规则,将其应用到未来数据的判断上。
- 目前最常见的机器学习的方式是监督学习:根据现有数据的输入和输出,不断对预测的公式进行调整。
- 还有无监督学习和半监督学习的方式。
- 强化学习:强化学习会从一个初始的策略开始。通常情况下,初始策略不一定很理想。在学习过程中,决策主体通过行动和环境进行交互,不断获得反馈(回报或者惩罚),并根据反馈调整优化策略。
也就是说通过不断的反馈,获取最有利的方案,比如下围棋,走哪一步能够获取最大的收益。
第二章 – 察异辨花(分类)
分类是把事物归属到它所属类别的过程,在生活中有着广泛应用。特征和分类器是分类中的重要概念。特征是根据事物自身的特点,提取的某方面数字或属性,它可以用特征向量来表示。
而分类器是从特征向量到类别的函数。分类过程可以分为三个阶段—征提取、分类器的训练以及测试应用。特征提取是由数据到特征向量的过程,是传统分类方法中的重点。得到特征向量之后,我们使用数据和算法来训练分类器。分类器通过测试后,就可以应用在实际生活中了。
分类器的训练是由训练算法来完成的,不同的训练算法可能会得到不同的分类器。本章介绍了感知器和支持向量机训练算法。它们都有着自己的损失函数。损失函数可以衡量分类器在训!练过程中输出错误的程度,然后通过优化方法就能够得到分类器了。
- 分类(classification):要根据所给数据的不同特点,判断它属于哪个类别。
- 分类器:已经已经训练好的模型,将要提取的特征输入,就能根据特征输出预测的结果。(对事物的某些方面的特点进行刻画的数字或者属性,我们称为特征(feature))。
- 将描述事物特征的数字组合形成向量,比如(x1,x2)。(x1为长,x2为宽)。
向量内积:两个具有相同维数的向量做内积,就是它们的每个数字先对应位置相乘后求和得到一个数。
将特征向量画在坐标轴作为坐标点,这些点称为特征点,这些点形成的空间称为特征空间。
特征点之间的距离可以用来衡量物体之间的相似程度。 - 分类器可以认为是一个函数,有多种形式,比如f(x1, x2, …,x)=a1x1+a2x2+…形式的分类器被称为线性分类器(linear classifier),其中n是特征向量的维数。
- 分类器需要训练、测试,然后进行应用。
- 训练集是一种数据集,包含特征及其对应的类别,用来给分类器训练。训练集的获取耗时耗力,有些还需要比较专业的知识。
- 训练分类器的过程是由一系列判断和计算的步骤组成的,通常被称为算法 (algorithm)。在一个数据集上,使用不同的算法可能会获得不同的分类器。如何设计一个算法能获得性能好(即分类准确率高)的分类器是机器学习里面一个经典的研究课题。
- 比如4点中的f(x1,x2…),训练就是为了得到对应的a1、a2…。
- 两种常见的训练线性分类器的算法一感知器和支持向量机,它提供了两种利用训练数据自动寻找参数的方法。
- 感知器(perceptron)是一种训练线性分类器的算法,它的主要想法是利用被误分类的训练数据调整现有分类器的参数,使得调整后的分类器判断得更加准确。
也就是说,目前的分类器会预测失败一些输入数据本来应有结果(与训练集不符),通过感知器不断矫正分类器的参数,使之正确,从而能够获取更准确的分类器。 - 感知器学习算法见书P29。
- 损失函数(loss function)是在训练过程中用来度量分类器输出错误程度的数学化表示。预测错误程度越大,损失函数的取值就越大。定义合适的损失函数对于训练分类器是非常重要的。感知器和支持向量机就是基于不同的损失函数建立起来的。
- 优化(optimization)就是调整分类器的参数,使得损失函数最小的过程。
- 支持向量机(support vector muiehine, SVM)是在特征空间上分类间隔最大的分类器,它与感知器一样,是对两个类别进行分类。线性分类器是分类器中的一种,类似地,线性支持向量机也是支持向量机中的一种。
- 支持向量指的是那些最难辨别的向量,可以说是最靠近分类器边缘的向量(要分类的两种类别中模糊的边界),支持向量机就是利用这些最富含信息的向量来得到分类器。
- 二分类问题主要解决的是‘是不是’的问题,如果遇到多个分类的问题,可以选择使用多个二分类组合判断,其中可能会涉及到用概率来输出结果,表示可信度。
第三章、识图认物
如何进行图像分类?首先我们了解了图像在计算机中的表示,知道了图像特征提取是对三阶张量进行特定的数学运算。在手工特征提取中,我们学习了卷积运算,并了解如何利用卷积运算提取图像特征,例如边缘特征和方向梯度直方图。手工设计特征有其局限的一面,而用深度神经网络自动学习特征已经是图像处理中广泛应用的方法,所以我们重点学习了如何用深度神经网络来进行图像分类。我们对深度神经网络的结构有了初步的认识,了解了深度神经网络中一些基本的层,例如卷积层、池化层、全连接层、非线性激活层和归一化指数层。同时我们知道了利用反向传播算法进行网络训练的过程。最后,我们认识了深度神经网络的发展和挑战,也了解了图像分类在日常生活中的广泛应用。
通过本章知识的学习和相关实验的完成我们可以体会到,相比经典方法,深度学习具有更为强大的表达力,因此能更好地完成复杂的任务,与此同时,多层神经网络的训练也需要更多的数据与计算能力的支持。
17. 一张彩色图像可以用一个由整数组成的立方体阵列来表示,这样按立方体排列的数字阵列为三阶张量(tensor)。这个三阶张量的长度与宽度即为图像的分辨率,高度为3。对数字图像而言**,三阶张量的高度也称为通道(chan-nel)数**,因此我们也说彩色图像有三个通道。矩阵可以看作是高度为1的三阶张量,因此灰度图像只有一个通道。
18. 卷积运算,P48。
19. 用一个较小的矩阵(卷积核)和图像做卷积运算,得到一个新的矩阵,这个矩阵可以看做另外一幅图像,更清楚的表现了图像的一些特征。
20. 特征的提取是手工设计的,所以很难得到非常高精确度的图像识别效果。
21. 深度神经网络可以通过自动学习获取有效的图像特征。
22. 深度神经网络包含很多的层(卷积层、池化层等)。
23. 层数过多可能会导致过拟合(过分迎合训练集)和欠拟合(难以提升)的现象。
第四章、析音赏乐
学习了卷积运算,并了解如何利用卷积运算提取图像特征,例如边缘特征和方向梯度直方图。手工设计特征有其局限的一面,而用深度神经网络自动学习特征已经是图像处理中广泛应用的方法,所以我们重点学习了如何用深度神经网络来进行图像分类。我们对深度神经网络的结构有了初步的认识,了解了深度神经网络中一些基本的层,例如卷积层、池化层、全连接层、非线性激活层和归一化指数层。同时我们知道了利用反向传播算法进行网络训练的过程。
最后,我们认识了深度神经网络的发展和挑战,也了解了图像分类在日常生活中的广泛应用。通过本章知识的学习和相关实验的完成我们可以体会到,相比经典方法,深度学习具有更为强大的表达力,因此能更好地完成复杂的任务,与此同时,多层神经网络的训练也需要更多的数据与计算能力的支持。