第 1 章 何谓深度学习
1.1 什么是智能 002
1.2 人工智能(AI)004
1.3 机器学习 005
1.4 神经网络 006
1.5 深度学习概要 008
1.6 人工智能、深度学习的历史 011
1.6.1 第 1 次 AI 热潮:20 世纪 50—60 年代 011
1.6.2 第 2 次 AI 热潮:20 世纪 80—90 年代中期 012
1.6.3 第 3 次 AI 热潮:2000 年至今 012
第 2 章 Python 概要
2.1 为何要使用 Python 016
2.2 Anaconda、Jupyter Notebook 的导入 017
2.2.1 Anaconda 的下载 017
2.2.2 Anaconda 的安装 018
2.2.3 Jupyter Notebook 的启动 018
2.2.4 Jupyter Notebook 的使用 019
2.2.5 关闭 Notebook 022
2.3 Python 的语法 022
2.3.1 变量与类型 023
2.3.2 运算符 024
2.3.3 列表 026
2.3.4 元组 026
2.3.5 字典 027
2.3.6 if 语句 028
2.3.7 for 语句 029
2.3.8 while 语句 029
2.3.9 闭包语法 030
2.3.10 函数 031
2.3.11 变量的作用域 032
2.3.12 类 033
2.4 NumPy 036
2.4.1 NumPy 的导入 036
2.4.2 NumPy 的数组 036
2.4.3 各种用于生成数组的函数 038
2.4.4 使用 reshape 进行形状变换 041
2.4.5 数组的运算 043
2.4.6 广播 044
2.4.7 对元素的访问 046
2.4.8 切片 048
2.4.9 轴与 transpose 方法 051
2.4.10 NumPy 的函数 054
2.5 Matplotlib 057
2.5.1 模块的导入 057
2.5.2 绘制图表 058
2.5.3 修饰图表 059
2.5.4 散点图的显示 060
2.5.5 图像的显示 060
第 3 章 深度学习中必备的数学知识
3.1 关于数学符号 064
3.1.1 求和符号西格玛(∑) 064
3.1.2 自然常数 e 065
3.1.3 自然对数 log 066
3.2 线性代数 067
3.2.1 标量 068
3.2.2 向量 068
3.2.3 矩阵 069
3.2.4 张量 070
3.2.5 标量与矩阵的乘积 075
3.2.6 元素项的乘积 076
3.2.7 矩阵乘法 079
3.2.8 矩阵的转置 083
3.3 微分 085
3.3.1 常微分 085
3.3.2 微分公式 086
3.3.3 连锁律 087
3.3.4 偏微分 089
3.3.5 全微分 090
3.3.6 多变量的连锁律 091
3.4 正态分布 092
第 4 章 神经网络
4.1 神经细胞网络 098
4.2 神经细胞的模型化 100
4.3 神经元的网络化 102
4.4 回归与分类 107
4.4.1 回归 107
4.4.2 分类 108
4.5 激励函数 109
4.5.1 阶跃函数 109
4.5.2 sigmoid 函数 110
4.5.3 tanh 112
4.5.4 ReLU 113
4.5.5 Leaky ReLU 114
4.5.6 恒等函数 115
4.5.7 SoftMax 函数 116
4.6 神经网络的编程实现 117
4.6.1 单一神经元的编程实现 118
4.6.2 权重与偏差的影响 120
4.6.3 多个神经元的编程实现 122
4.6.4 各个神经层的实现 122
4.6.5 神经网络(回归) 123
4.6.6 神经网络的表现能力 125
4.6.7 神经网络(分类) 126
第 5 章 反向传播
5.1 学习法则 132
5.1.1 赫布学习法则 132
5.1.2 Delta 学习法则 133
5.2 何谓反向传播 134
5.3 训练数据与测试数据 136
5.4 损失函数 137
5.4.1 平方和误差 137
5.4.2 交叉熵误差 138
5.5 梯度下降法 139
5.5.1 梯度下降法概要 140
5.5.2 梯度计算方法概要 142
5.5.3 输出层的梯度 143
5.5.4 输出层的输入梯度 145
5.5.5 中间层的梯度 146
5.5.6 梯度计算公式总结 148
5.5.7 梯度的计算方法——回归 150
5.5.8 梯度的计算方法——分类 152
5.6 最优化算法 154
5.6.1 最优化算法概要 154
5.6.2 随机梯度下降法(SGD) 155
5.6.3 Momentum 156
5.6.4 AdaGrad 156
5.6.5 RMSProp 157
5.6.6 Adam 157
5.7 批次尺寸 158
5.7.1 epoch 与批次 158
5.7.2 批次学习 159
5.7.3 在线学习 159
5.7.4 小批次学习 160
5.8 矩阵运算 161
5.8.1 矩阵的格式 161
5.8.2 使用矩阵进行正向传播 161
5.8.3 使用矩阵进行反向传播 163
5.9 反向传播的实现——回归 166
5.9.1 回归示例——sin 函数的学习 166
5.9.2 输出层的实现 167
5.9.3 中间层的实现 169
5.9.4 反向传播的实现 169
5.9.5 完整的实现代码 171
5.9.6 执行结果 174
5.10 反向传播的实现——分类 175
5.10.1 分类示例——所属区域的学习 175
5.10.2 各个层的实现 176
5.10.3 完整的实现代码 177
5.10.4 执行结果 180
第 6 章 深度学习的编程实现
6.1 多层化所带来的问题 184
6.1.1 局部最优解的陷阱 184
6.1.2 过拟合 185
6.1.3 梯度消失 188
6.1.4 学习时间过长的问题 189
6.2 解决问题的对策 190
6.2.1 超参数的最优化 190
6.2.2 正则化 190
6.2.3 权重与偏差的初始值 191
6.2.4 提前终止 191
6.2.5 数据扩张 192
6.2.6 数据的预处理 192
6.2.7 Dropout 194
6.3 鸢尾花的品种分类 195
6.3.1 鸢尾花数据集 195
6.3.2 训练数据与测试数据 197
6.3.3 网络的结构 197
6.3.4 学习的各种相关设置 198
6.4 深度学习的编程实现 198
6.4.1 数据的获取与预处理 199
6.4.2 各个网络层的实现 201
6.4.3 神经网络的实现 203
6.4.4 小批次法的实现 204
6.4.5 正确率的测算 205
6.4.6 整体的实现代码 206
6.4.7 执行结果 210
6.4.8 过拟合的应对策略 211
6.4.9 AdaGrad 算法的实现 212
6.4.10 Dropout 的实现 213
6.4.11 过拟合对策的结果 214
6.4.12 品种的判断 216
第 7 章 卷积神经网络(CNN)
7.1 卷积神经网络(CNN)概要 220
7.1.1 视觉的原理 220
7.1.2 CNN 的结构 222
7.1.3 卷积层 223
7.1.4 池化层 226
7.1.5 全连接层 227
7.1.6 填充 227
7.1.7 步长 228
7.1.8 CNN 的学习 229
7.1.9 变量一览表 229
7.2 im2col 与 col2im 230
7.2.1 im2col 与 col2im 概要 230
7.2.2 im2col 的算法 232
7.2.3 im2col 的实现——简单的 im2col 235
7.2.4 im2col 的实现——im2col 的实用化 237
7.2.5 col2im 的算法 240
7.2.6 col2im 的实现 241
7.3 卷积层的编程实现 243
7.3.1 编程实现的概要 243
7.3.2 正向传播 245
7.3.3 反向传播 247
7.4 池化层的编程实现 250
7.4.1 编程实现的概要 250
7.4.2 正向传播 252
7.4.3 反向传播 254
7.5 全连接层的编程实现 258
7.6 卷积神经网络的实践 259
7.6.1 需要使用的数据集 259
7.6.2 构建网络 261
7.6.3 CNN 的实现代码 261
7.6.4 执行结果 270
7.6.5 卷积层的可视化 272
7.6.6 卷积层的效果 273
7.7 更深层次的网络 273
7.7.1 构建网络 274
第 8 章 深度学习的相关技术
· · · · · · (
收起)
0 有用 视阅者 2022-11-15 00:04:52 贵州
第7章读不进去,总体一般般。
2 有用 仰望星空 2022-10-25 09:13:27 北京
写的浅显易懂,可以快速入门。