|
|
51CTO旗下网站
|
|
移动端

目录(1)

《深度学习与计算机视觉:算法原理、框架应用与代码实现》本书全面介绍了深度学习及计算机视觉中最基础的知识,并结合最常见的应用场景和大量实例,带领读者进入丰富多彩的计算机视觉领域。本节为目录。

作者:叶韵来源:机械工业出版社|2017-11-16 16:36

【51CTO技术沙龙】10月27日,让我们共同探索AI场景化应用实现之道

目录(1)

序言
前言
第1篇  基础知识
第1章  引言 2
1.1  人工智能的新焦点——深度学习 2
1.1.1  人工智能——神话传说到影视漫画 2
1.1.2  人工智能的诞生 3
1.1.3  神经科学的研究 4
1.1.4  人工神经网络的兴起 5
1.1.5  神经网络的第一次寒冬 6
1.1.6  神经网络的第一次复兴 8
1.1.7  神经网络的第二次寒冬 9
1.1.8  2006年——深度学习的起点 10
1.1.9  生活中的深度学习 11
1.1.10  常见深度学习框架简介 12
1.2  给计算机一双眼睛——计算机视觉 14
1.2.1  计算机视觉简史 14
1.2.2  2012年——计算机视觉的新起点 16
1.2.3  计算机视觉的应用 17
1.2.4  常见计算机视觉工具包 19
1.3  基于深度学习的计算机视觉 19
1.3.1  从ImageNet竞赛到AlphaGo战胜李世石——计算机视觉超越人类 19
1.3.2  GPU和并行技术——深度学习和计算视觉发展的加速器 21
1.3.3  基于卷积神经网络的计算机视觉应用 22
第2章  深度学习和计算机视觉中的基础数学知识 27
2.1  线性变换和非线性变换 27
2.1.1  线性变换的定义 27
2.1.2  高中教科书中的小例子 28
2.1.3  点积和投影 28
2.1.4  矩阵乘法的几何意义(1) 30
2.1.5  本征向量和本征值 34
2.1.6  矩阵乘法的几何意义(2) 37
2.1.7  奇异值分解 38
2.1.8  线性可分性和维度 39
2.1.9  非线性变换 42
2.2  概率论及相关基础知识 43
2.2.1  条件概率和独立 43
2.2.2  期望值、方差和协方差 44
2.2.3  熵 45
2.2.4  最大似然估计(Maximum Likelihood Estimation,MLE) 47
2.2.5  KL散度(Kullback–Leibler divergence) 49
2.2.6  KL散度和MLE的联系 49
2.3  维度的诅咒 50
2.3.1  采样和维度 50
2.3.2  高维空间中的体积 51
2.3.3  高维空间中的距离 53
2.3.4  中心极限定理和高维样本距离分布的近似 54
2.3.5  数据实际的维度 56
2.3.6  局部泛化 58
2.3.7  函数对实际维度的影响 59
2.3.8  PCA——什么是主成分 60
2.3.9  PCA——通过本征向量和本征值求主成分 60
2.3.10  PCA——通过主成分分析降维 61
2.3.11  PCA——归一化和相关性系数 63
2.3.12  PCA——什么样的数据适合PCA 64
2.3.13  其他降维手段 65
2.4  卷积 66
2.4.1  点积和卷积 66
2.4.2  一维卷积 67
2.4.3  卷积和互相关 68
2.4.4  二维卷积和图像响应 69
2.4.5  卷积的计算 70
2.5  数学优化基础 71
2.5.1  最小值和梯度下降 72
2.5.2  冲量(Momentum) 73
2.5.3  牛顿法 75
2.5.4  学习率和自适应步长 77
2.5.5  学习率衰减(Learning Rate Decay) 78
2.5.6  AdaGrad:每个变量有自己的节奏 78
2.5.7  AdaDelta的进一步改进 79
2.5.8  其他自适应算法 80
2.5.9  损失函数 81
2.5.10  分类问题和负对数似然 82
2.5.11  逻辑回归 83
2.5.12  Softmax:将输出转换为概率 84
2.5.13  链式求导法则 84
第3章  神经网络和机器学习基础 87
3.1  感知机 87
3.1.1  基本概念 87
3.1.2  感知机和线性二分类 87
3.1.3  激活函数 88
3.2  神经网络基础 89
3.2.1  从感知机到神经网络 89
3.2.2  最简单的神经网络二分类例子 90
3.2.3  隐层神经元数量的作用 93
3.2.4  更加复杂的样本和更复杂的神经网络 94
3.3  后向传播算法 95
3.3.1  求神经网络参数的梯度 95
3.3.2  计算图(Computational Graph) 95
3.3.3  利用后向传播算法计算一个神经网络参数的梯度 97
3.3.4  梯度消失 99
3.3.5  修正线性单元(ReLU) 100
3.3.6  梯度爆炸 101
3.3.7  梯度检查(gradient check) 102
3.3.8  从信息传播的角度看后向传播算法 103
3.4  随机梯度下降和批量梯度下降 104
3.4.1  全量数据(full-batch)梯度下降 104
3.4.2  随机梯度下降(SGD)和小批量数据(mini-batch) 104
3.4.3  数据均衡和数据增加(data augmentation) 106
3.5  数据、训练策略和规范化 108
3.5.1  欠拟合和过拟合 108
3.5.2  训练误差和测试误差 109
3.5.3  奥卡姆剃刀没有免费午餐 111
3.5.4  数据集划分和提前停止 112
3.5.5  病态问题和约束 113
3.5.6  L2规范化(L2 Regularization) 113
3.5.7  L1规范化(L1 Regularization) 114
3.5.8  集成(Ensemble)和随机失活(Dropout) 115
3.6  监督学习、非监督学习、半监督学习和强化学习 117
3.6.1  监督学习、非监督学习和半监督学习 117
3.6.2  强化学习(reinforcement learning) 118
第4章  深度卷积神经网络 120
4.1  卷积神经网络 120
4.1.1  基本概念 120
4.1.2  卷积层和特征响应图 121
4.1.3  参数共享 123
4.1.4  稀疏连接 124


喜欢的朋友可以添加我们的微信账号:

51CTO读书频道二维码


51CTO读书频道活动讨论群:365934973

【责任编辑:book TEL:(010)68476606】

回书目   上一节   下一节
点赞 0
分享:
大家都在看
猜你喜欢

读 书 +更多

网络管理员考试考前冲刺预测卷及考点解析

本书依据最新版《网络管理员考试大纲》的考核要求,深入研究了历年网络管理员考试试题的命题风格和试题结构,对考查的知识点进行了提炼,并...

订阅51CTO邮刊

点击这里查看样刊

订阅51CTO邮刊