| 作 者: | 罗韦尔-阿蒂恩扎 |
| 出版社: | 机械工业出版社 |
| 丛编项: | 深度学习系列 |
| 版权说明: | 本书为出版图书,暂不支持在线阅读,请支持正版图书 |
| 标 签: | 暂缺 |
| ISBN | 出版时间 | 包装 | 开本 | 页数 | 字数 |
|---|---|---|---|---|---|
| 未知 | 暂无 | 暂无 | 未知 | 0 | 暂无 |
目 录
译者序
原书前言
第 1章 Keras高级深度学习入门
1.1 为什么 Keras是完美的深度学习库
1.1.1 安装 Keras和 TensorFlow
1.2 实现核心深度学习模型——MLP、CNN和 RNN
1.2.1 MLP、CNN和 RNN之间的差异
1.3 多层感知器(MLP)
1.3.1 MNIST数据集
1.3.2 MNIST数字分类模型
1.3.3 正则化
1.3.4 输出激活与损失函数
1.3.5 优化
1.3.6 性能评价
1.3.7 模型概述
1.4 卷积神经网络( CNN)
1.4.1 卷积
1.4.2 池化操作
1.4.3 性能评价与模型概要
1.5 循环神经网络(RNN)
1.6 小结
参考文献
第 2章 深度神经网络
2.1 函数式 API
2.1.1 创建一个两输入单输出模型
2.2 深度残差网络(ResNet)
2.3 ResNet v2
2.4 密集连接卷积网络(DenseNet))
2.4.1 为 CIFAR10数据集构建一个 100层的 DenseNet-BC网络
2.5 小结
参考文献
第 3章 自编码器
3.1 自编码器原理
3.2 使用 Keras构建自编码器
3.3 去噪自编码器(DAE)
3.4 自动色彩迁移自编码器
3.5 小结
参考文献
第 4章 生成对抗网络
4.1 GAN概要
4.2 GAN原理
4.3 Keras中的 GAN实现
4.4 条件 GAN
4.5 小结
参考文献
第 5章 改进的 GAN方法
5.1 Wasserstein GAN
5.1.1 距离函数
5.1.2 GAN中的距离函数
5.1.3 Wasserstein损失函数的使用
5.1.4 使用 Keras实现 WGAN
5.2 最小二乘 GAN(LSGAN)
5.3 辅助分类器 GAN(ACGAN)
5.4 小结
参考文献
第 6章 分离表示 GAN
6.1 分离表示
6.2 InfoGAN
6.3 在 Keras中实现 InfoGAN
6.4 InfoGAN生成器的输出
6.5 StackedGAN
6.6 在 Keras中实现 StackedGAN
6.7 StackedGAN的生成器输出
6.8 小结
参考文献
第 7章 跨域 GAN
7.1 CycleGAN原理
7.1.1 CycleGAN模型
7.1.2 使用 Keras实现 CycleGAN
7.1.3 CycleGAN生成器的输出??
7.1.4 CycleGAN用于 MNIST和 SVHN数据集
7.2 小结
参考文献
第 8章 变分自编码器
8.1 VAE原理
8.1.1 变分推断
8.1.2 核心公式
8.1.3 优化
8.1.4 再参数化的技巧
8.1.5 解码测试
8.1.6 VAE的 Keras实现
8.1.7 将 CNN应用于 VAE
8.2 条件 VAE (CVAE)
8.3 β-VAE:可分离的隐式表示VAE
8.4 小结
参考文献
第 9章 深度强化学习
9.1 强化学习原理
9.2 Q值
9.3 Q-Learning例子
9.3.1 用 Python实现Q-Learning
9.4 非确定性环境
9.5 时序差分学习
9.5.1 OpenAI Gym中应用 Q-Learning
9.6 深度Q网络(DQN)
9.6.1 用 Keras实现 DQN
9.6.2 双 Q-Learning(DDQN)
9.7 小结
参考文献
第 10章 策略梯度方法
10.1 策略梯度定理
10.2 蒙特卡罗策略梯度(REINFORCE)方法
10.3 基线 REINFORCE方法
10.4 Actor-Critic方法
10.5 优势 Actor-Critic方法
10.6 Keras中的策略梯度方法
10.7 策略梯度方法的性能评估
10.8 小结
参考文献