| ISBN | 出版时间 | 包装 | 开本 | 页数 | 字数 |
|---|---|---|---|---|---|
| 未知 | 暂无 | 暂无 | 未知 | 0 | 暂无 |
基础篇
第1章 什么是深度学习
1.1 通过应用示例直观理解深度学习
1.2 3个视角解释深度学习
1.2.1 分层组合性
1.2.2 端到端学习
1.2.3 分布式表示
1.3 深度学习面临的挑战
1.3.1 深度学习的工作机制
1.3.2 非凸的问题
1.3.3 可解释性的问题
第2章 图像识别及K-NN算法
2.1 图像分类
2.2 误差分解和K-NN算法
2.2.1 误差分解
2.2.2 K-NN算法运行过程
第3章 线性分类器
3.1 线性分类器用于图像分类的3个观点
3.1.1 线性分类的代数观点
3.1.2 线性分类的视觉观点
3.1.3 线性分类的几何观点
3.2 合页损失函数原理推导及图像分类举例
3.2.1 合页损失函数的概念
3.2.2 多分类合页损失函数的推导
3.3 Softmax损失函数与多分类SVM损失函数的比较
3.3.1 Softmax分类与损失函数
3.3.2 Softmax损失函数与合页损失函数的比较
第4章 优化与梯度
4.1 梯度下降法工作原理及3种普通梯度下降法
4.1.1 梯度下降的概念
4.1.2 梯度下降法求解目标函数
4.1.3 学习率的重要性
4.1.4 3种梯度下降法
4.2 动量SGD和Nesterov加速梯度法
4.2.1 SGD存在的问题
4.2.2 动量法
4.2.3 Nesterov加速梯度法
4.3 自适应学习速率优化方法
4.3.1 指数加权平均值处理数字序列
4.3.2 自适应学习速率AdaGrad方法
4.3.3 自适应学习速率RMSProp方法
4.3.4 自适应学习速率Adadelta方法
4.4 最强优化方法Adam
4.4.1 为什么Adam性能如此卓越
4.4.2 偏差矫正
4.4.3 如何矫正偏差
第5章 卷积神经网络
5.1 卷积核
5.1.1 卷积核简介
5.1.2 卷积核的作用
5.2 卷积神经网络中步长、填充和通道的概念
5.2.1 步长
5.2.2 填充
5.2.3 通道
5.3 快速推导卷积层特征图尺寸计算公式
5.3.1 计算过程直观展示
5.3.2 计算过程总结
5.4 极简方法实现卷积层的误差反传
5.4.1 误差反传举例说明
5.4.2 完全卷积过程简介
5.4.3 把卷积过程写成神经网络形式
5.4.4 应用计算图的反向模式微分
5.5 极池化层的本质思想及其过程
5.5.1 池化层的分类
5.5.2 池化后图像尺寸
第6章 卷积神经网络训练技巧
6.1 ReLU激活函数的优势
6.1.1 为什么需要激活函数
6.1.2 主流激活函数介绍
6.2 内部协变量偏移
6.3 批归一化
6.3.1 为什么需要批归一化
6.3.2 批归一化的工作原理
6.3.3 批归一化的优势
6.4 Dropout正则化及其集成方法思想
6.4.1 特征共适应性
6.4.2 Dropout正则化思想
6.4.3 Dropout集成思想
6.4.4 预测时需要恢复Dropout的随机性
第7章 卷积神经网络架构
7.1 掀起深度学习风暴的AlexNet网络架构
7.1.1 卷积神经网络的开端LeNet
7.1.2 AlexNet架构
7.2 神经网络感受野及其计算
7.2.1 生物学中的感受野
7.2.2 CNN中的感受野
7.3 VGGNet网络结构相比较AlexNet的优势
7.3.1 VGGNet简介
7.3.2 VGGNet与AlexNet网络结构对比
7.4 GoogLeNet1×1卷积核的深刻意义及其作用
7.4.1 深度神经网络的缺陷
7.4.2 多通道卷积中特征图映射太多的问题
7.4.3 1×1卷积核卷积过程
7.5 GoogLeNet初始模块设计指导思想
7.5.1 赫布学习规则
7.5.2 人工神经网络中的赫布学习规则
7.6 透彻理解GoogLeNet全景架构
7.7 ResNet关键结构恒等映射背后的思想及原理
7.8 全面理解ResNet全景架构
第8章 循环神经网络
8.1 为什么要用递归神经网络
8.1.1 为什么需要递归神经网络
8.1.2 RNN结构以及应用
8.2 RNN计算图
8.3 RNN前向与反向传播
8.3.1 前馈深度
8.3.2 循环深度
8.3.3 通过时间反向传播
8.3.4 两个和的反向传播
8.3.5 梯度消失和梯度爆炸
8.4 长短期记忆(LSTM)及其变种的原理
8.4.1 LSTM网络架构
8.4.2 LSTM变体一
8.4.3 LSTM变体二
8.4.4 LSTM变体三
第9章 基于深度学习的语言模型
9.1 词的各种向量表示
9.2 通过词向量度量词的相似性
9.3 潜在语义分析LSA
9.3.1 潜在语义分析的过程
9.3.2 潜在语义分析的SVD分解
9.4 Word2Vec词嵌入原理
9.4.1 Word2Vec的指导思想
9.4.2 skip-gram算法的框架
9.4.3 skip-gram算法的输入训练集
9.4.4 skip-gra