| 作 者: | 胡鹤 |
| 出版社: | 电子工业出版社 |
| 丛编项: | |
| 版权说明: | 本书为出版图书,暂不支持在线阅读,请支持正版图书 |
| 标 签: | 暂缺 |
| ISBN | 出版时间 | 包装 | 开本 | 页数 | 字数 |
|---|---|---|---|---|---|
| 未知 | 暂无 | 暂无 | 未知 | 0 | 暂无 |
目 录
入 门 篇
第1章 学习环境搭建\t3
1.1 Docker工具箱\t3
1.2 运行Docker镜像\t6
1.3 Jupyter笔记本\t10
1.3.1 Jupyter界面\t10
1.3.2 Jupyter单元格\t12
1.3.3 Jupyter模式\t14
1.3.4 Jupyter常用指令\t14
1.4 NumPy库\t15
1.4.1 ndarray数据基础\t16
1.4.2 ndarray广播运算\t20
1.4.3 ndarray函数运算\t22
1.4.4 ndarray索引切分\t24
1.5 Pandas\t25
1.5.1 Pandas基础对象\t26
1.5.2 Pandas选择数据\t29
1.5.3 Pandas 处理实例\t31
1.6 Scikit-Learn\t34
1.6.1 sklearn.datasets\t34
1.6.2 Pandas处理\t35
1.6.3 sklearn回归\t36
第2章 TensorFlow入门\t38
2.1 Hello TensorFlow\t39
2.2 TensorFlow数据结构\t39
2.3 TensorFlow计算-数据流图\t40
2.3.1 常量节点(Constant)\t42
2.3.2 占位符节点(Placeholder)\t42
2.3.3 变量节点(Variable)\t43
2.3.4 操作节点(Operation)\t45
2.4 TensorFlow会话与基本操作\t45
2.5 TensorFlow可视化\t47
第3章 TensorFlow进阶\t49
3.1 TensorFlow数据处理\t50
3.1.1 索引计算\t50
3.1.2 矩阵计算\t51
3.1.3 形状计算\t53
3.1.4 规约计算\t54
3.1.5 分割计算\t55
3.1.6 张量的形状\t57
3.1.7 张量的运算\t58
3.1.8 骰子游戏\t61
3.2 TensorFlow共享变量\t62
3.2.1 name_scope名字域\t62
3.2.2 variablescope 变量域\t63
3.3 TensorFlow模型配置\t64
基 础 篇
第4章 线性回归算法\t69
4.1 BOSTON 数据集\t70
4.2 TensorFlow模型\t72
4.2.1 准备数据\t72
4.2.2 定义模型\t72
4.2.3 训练模型\t73
4.2.4 评估模型\t73
4.2.5 可视化模型\t73
4.3 Estimator模型\t75
4.3.1 Dataset API\t75
4.3.2 估算器介绍\t76
4.3.3 准备数据\t77
4.3.4 定义模型\t78
4.3.5 训练模型\t78
4.3.6 评估模型\t78
4.3.7 可视化模型\t79
4.4 Keras模型\t81
4.4.1 定义模型\t81
4.4.2 训练模型\t81
4.4.3 评估模型\t82
4.4.4 可视化模型\t82
第5章 逻辑回归算法\t84
5.1 线性回归到逻辑回归\t84
5.2 最小二乘到交叉熵\t86
5.3 MNIST数据集\t88
5.4 TensorFlow模型\t88
5.4.1 准备数据\t89
5.4.2 定义模型\t89
5.4.3 训练模型\t90
5.4.4 评估模型\t91
5.4.5 可视化模型\t91
5.5 Estimator模型\t92
5.5.1 准备数据\t92
5.5.2 定义模型\t93
5.5.3 训练模型\t93
5.5.4 评估模型\t93
5.5.5 可视化模型\t94
5.6 Keras模型\t95
5.6.1 准备数据\t95
5.6.2 定义模型\t96
5.6.3 训练模型\t96
5.6.4 评估模型\t96
5.6.5 可视化模型\t97
第6章 算法的正则化\t99
6.1 过拟合\t99
6.2 正则化\t99
6.3 编程实战\t103
进 阶 篇
第7章 神经网络与深度学习算法\t113
7.1 神经网络\t113
7.1.1 激活函数\t114
7.1.2 编程实战\t119
7.2 神经网络训练\t123
7.2.1 训练困难分析\t124
7.2.2 编程实战\t124
7.3 多类别神经网络\t133
7.3.1 逻辑回归与深度网络\t133
7.3.2 权重可视化\t135
7.4 神经网络嵌入\t136
7.4.1 一维数轴排列\t137
7.4.2 二维数轴排列\t137
7.4.3 传统类别表示\t138
7.4.4 嵌入表示\t140
第8章 卷积神经网络(CNN)\t141
8.1 卷积神经网络简介\t141
8.2 CNN与DNN\t142
8.3 卷积操作\t142
8.4 卷积实战\t145
8.5 池化操作\t149
8.6 池化实战\t149
8.7 Relu非线性激活\t150
8.8 TensorFlow卷积神经网络实战\t151
8.9 Estimalor卷积神经网络实战\t155
8.10 Keras卷积神经网络实战\t159
第9章 循环神经网络(RNN)\t162
9.1 循环神经网络简介\t162
9.2 DNN、CNN与RNN\t162
9.3 手工循环神经网络\t164
9.4 static_rnn循环神经网络\t165
9.5 dynamic_rnn循环神经网络\t167
9.6 TensorFlow循环神经网络实战\t169
9.7 Estimator循环神经网络实战\t173
9.8 Keras循环神经网络实战\t176
9.9 LSTM模型\t178
9.10 GRU模型\t180
第10章 自动编码器(AutoEncoder)\t182
10.1 自动编码器简介\t182
10.2 自动编码器与PCA\t183
10.3 稀疏自动编码器\t185
10.4 栈式自动编码器(SAE)\t187
10.4.1 关联权重\t190
10.4.2 分阶段训练\t192
10.4.3 无监督预训练\t194
10.5 降噪自动编码器(DAE)\t198
10.6 变分自动编码器(VAE)\t200
10.6.1 变分自动编码器原理\t200
10.6.2 变分自动编码器生成数字\t203
应 用 篇
第11章 生成式对抗网络\t207
11.1 生成式对抗网络简介\t207
11.2 GAN工作原理\t207
11.3 GAN改进模型\t209
11.4 GAN模型实战\t212
11.5 GAN训练技巧\t221
11.6 GAN未来展望\t222
第12章 使用TensorFlow Hub进行迁移学习\t223
12.1 图像迁移学习\t223
12.2 文本迁移学习\t224
12.3 完整的文本分类器\t225
12.4 迁移学习分析\t228