机器之心报道
编辑:小舟、杜伟
计算机视觉在日常生活中已经无处不在。从搜索引擎、图像理解、地图、医疗、无人机、自动驾驶到各类手机 app,都离不开计算机视觉。这些应用中有许多像图像分类和目标检测这样的视觉识别任务,而神经网络方面的进展大大提高了视觉识别系统的性能。
来自密歇根大学的 Justin Johnson 在 2019 年秋季推出了一套新的课程,该课程深入探讨了基于神经网络的计算机视觉深度学习方法的细节。这一课程近日已在 YouTube 上开放。
课程视频链接:https://www.youtube.com/playlist?list=PL5-TkQAfAZFbzxjBHtzdVCWE0Zbhomg7r
课程概况
这套 2019 年秋季的计算机视觉课程名为「Deep Learning for Computer Vision」,课程讲授者是来自密歇根大学的 Justin Johnson。作为斯坦福大学李飞飞教授的学生,Justin Johnson 曾和李飞飞一起讲授斯坦福大学计算机视觉经典课程 CS231n。
Justin Johnson,图源:https://web.eecs.umich.edu/~justincj/。
目前,Justin Johnson 正在密歇根大学担任助理教授,同时他也是 Facebook AI 研究所的客座科学家。他的研究兴趣主要是计算机视觉和机器学习,研究涉及视觉推理、视觉和语言、图像生成以及使用深度神经网络的 3D 推理。
在「Deep Learning for Computer Vision」课程中,学生可以学习到实现、训练和调试自己的神经网络,并能够详细了解计算机视觉前沿研究的知识。课程中介绍了学习算法、神经网络架构以及用于训练和微调视觉识别任务网络的实用工程技巧。
22 个课时、19 个主题、历时 3 个多月
密歇根大学 2019 秋季「Deep Learning for Computer Vision」课程历时 3 个多月,共计 22 个课时,19 个主题。
课时 1:计算机视觉深度学习简介,包括历史背景和当前发展概述;
课时 2:图像分类,包括数据驱动方法、最近邻算法、超参数和交叉验证;
课时 3:线性分类器,包括 Softmax 或 SVM 分类器和 L2 正则化;
课时 4:优化,包括随机梯度下降、动量、AdaGrad、Adam 和二阶优化器;
课时 5:神经网络,包括特征转换、全连接网络、泛逼近(universal approximation )和凸性。
课时 6:反向传播,包括计算图、反向传播和矩阵乘法示例;
课时 7:卷积网络,包括卷积、池化和批归一化;
课时 8:CNN 架构,包括 AlexNet、VGG、ResNet、大小 VS 准确性、分组和可分离卷积以及神经架构搜索;
课时 9:硬件和软件,包括 CPU、GPU、TPU、动态与静态图以及 PyTorch 和 TensorFlow;
课时 10:神经网络训练 I,包括激活函数、数据预处理、权重初始化、数据增广和正则化(Dropout 等);
课时 11:神经网络训练 II,包括学习率方案、超参数优化、模型集成、迁移学习和大批量训练;
课时 12:递归网络,包括 RNN、LSTM、GRU、语言建模、序列到序列、图像标注和视觉问题;
课时 13:注意力,包括多模态注意力、自注意力和 Transformers;
课时 14:可视化和理解,包括特征可视化、对抗性示例以及 DeepDream 和风格迁移;
课时 15:目标检测,包括单级检测器和两级检测器;
课时 16:图像分割,包括语义分割、实例分割和关键点估计;
课时 17:3D 视觉,包括 3D 形状表示、深度估计、3D 形状预测以及立体像素、点云、SDF 和网格;
课时 18:视频,包括视频分类、早期和后期融合、3D CNN 和双流网络;
课时 19:生成模型 I,包括监督与无监督学习、判别与生成模型、自回归模型和变分自编码器;
课时 20:生成模型 II,包括变分更强的自编码器和生成对抗网络;
课时 21:强化学习,包括强化学习问题设置、贝尔曼方程、Q 学习和策略梯度;
课时 22:课程总结,包括课程回顾和计算机视觉的发展展望。
https://web.eecs.umich.edu/~justincj/
https://web.eecs.umich.edu/~justincj/teaching/eecs498/schedule.html