[套装书]机器学习编程:从编码到深度学习+机器学习及其应用(2册)

作者
保罗·佩罗塔 M. 戈帕尔
丛书名
智能科学与技术丛书
出版社
机械工业出版社
ISBN
9782105181642
简要
简介
内容简介书籍计算机书籍 ---------------------------8080773 - 机器学习编程:从编码到深度学习--------------------------- 使用监督学习从头构建一个图像识别应用程序。用线性回归预测未来。深入研究梯度下降,这是一种驱动大部分机器学习的基本算法。创建感知器来分类数据。建立神经网络来处理更复杂和复杂的数据集。通过反向传播和批处理来训练和细化这些网络。分层神经网络,消除过度拟合,并添加卷积将您的神经网络转换为一个真正的深度学习系统。 ---------------------------8070111 - 机器学习及其应用--------------------------- 本书是关于机器学习的综合性教程,涵盖全部基础知识和理论,涉及不同应用领域的技术和算法。书中提出,机器学习背后的大多数想法都是简单且直接的。为了鼓励读者在实践中理解机器学习算法,本书提供一个配套平台,利用自我学习的机器学习项目,再结合一些基准测试应用的数据集,通过实验比较书中介绍的各类算法,从而实现深入理解。本书对于入门阶段的研究生和学者非常有益,会为进一步的深入研究打好基础。此外,本书也适合对机器学习感兴趣的工程师和其他技术人员阅读。
目录
[套装书具体书目]
8070111 - 机器学习及其应用 - 9787111654148 - 机械工业出版社 - 定价 139
8080773 - 机器学习编程:从编码到深度学习 - 9787111680918 - 机械工业出版社 - 定价 99



---------------------------8080773 - 机器学习编程:从编码到深度学习---------------------------


译者序
前言
致谢
第一部分 从零开始的
图像识别
第1章 机器学习的原理 2
1.1 编程与机器学习 2
1.2 监督学习 4
1.3 魔法背后的数学原理 6
1.4 设置系统 8
第2章 首个机器学习程序 12
2.1 了解问题 12
2.1.1 监督比萨 13
2.1.2 理解数据 13
2.2 编写线性回归代码 15
2.2.1 定义模型 16
2.2.2 进行预测 18
2.2.3 进行训练 18
2.2.4 计算误差 19
2.2.5 越来越接近 20
2.2.6 运行代码 21
2.3 添加偏置 23
2.4 小结 25
2.5 动手研究:设置超参数 26
第3章 梯度 28
3.1 算法的缺陷 28
3.2 梯度下降法 30
3.2.1 少量数学知识 32
3.2.2 陡坡速降 33
3.2.3 脱离平面 34
3.2.4 偏导数 35
3.2.5 测试梯度下降法 37
3.2.6 何时梯度下降法不适用 38
3.3 小结 40
3.4 动手研究:露营地问题 40
第4章 超空间 41
4.1 添加更多维度 42
4.2 矩阵代数 44
4.2.1 矩阵乘法 45
4.2.2 矩阵转置 47
4.3 升级学习程序 47
4.3.1 数据准备 48
4.3.2 升级预测函数 50
4.3.3 升级损失函数 51
4.3.4 升级梯度公式 52
4.3.5 整合函数 53
4.4 告别偏置 54
4.5 最后一次试运行 55
4.6 小结 56
4.7 动手研究:统计学家 56
第5章 能辨识的机器 58
5.1 线性回归的不足 58
5.2 S型函数 61
5.2.1 信心与疑虑 62
5.2.2 平滑过程 63
5.2.3 升级梯度 65
5.2.4 模型函数受到的影响 66
5.3 操作中的分类函数 67
5.4 小结 69
5.5 动手研究:权重的影响 70
第6章 计算机视觉初探 71
6.1 处理数据 72
6.1.1 MNIST入门 72
6.1.2 训练与测试 73
6.2 我们自己的MNIST库 74
6.2.1 准备输入矩阵 74
6.2.2 处理数据 76
6.3 实际运行 79
6.4 小结 80
6.5 动手研究:难以识别的数字 80
第7章 最后的挑战 81
7.1 多元分类 81
7.1.1 独热编码 83
7.1.2 独热编码实践 84
7.1.3 解码分类器的答案 85
7.1.4 需要更多的权重 85
7.1.5 回顾矩阵维数 86
7.2 验证与结果 87
7.3 小结 89
7.4 动手研究:扫雷舰 89
第8章 感知机 91
8.1 认识感知机 91
8.2 组装感知机 92
8.3 感知机的不足 93
8.3.1 线性可分数据 94
8.3.2 线性不可分数据 95
8.4 感知机史话 97
8.4.1 终极之战 98
8.4.2 论战余波 98
第二部分 神经网络
第9章 设计神经网络 100
9.1 用感知机组装神经网络 101
9.1.1 链式感知机 102
9.1.2 节点数量 103
9.2 加入softmax函数 105
9.3 构建方案 106
9.4 小结 106
9.5 动手研究:网络冒险 107
第10章 构建神经网络 108
10.1 编写正向传播代码 108
10.1.1 编写softmax函数 110
10.1.2 编写分类函数 112
10.2 交叉熵 112
10.3 小结 114
10.4 动手研究:时间旅行的测试 115
第11章 训练神经网络 116
11.1 反向传播的使用场合 116
11.2 从链式法则到反向传播 118
11.2.1 简单网络结构的链式法则 118
11.2.2 复杂网络的链式法则 119
11.3 使用反向传播算法 121
11.3.1 开始之前 123
11.3.2 计算w2的梯度 123
11.3.3 计算w1的梯度 124
11.3.4 提炼反向函数 125
11.4 初始化权重 126
11.4.1 可怕的对称性 126
11.4.2 死亡神经元 127
11.4.3 正确的权重初始化 129
11.5 完成网络模型 130
11.6 小结 132
11.7 动手研究:错误的开始 133
第12章 分类器的工作原理 134
12.1 寻找边界 134
12.1.1 感知机的主场 135
12.1.2 理解分类 136
12.1.3 线性不可分 138
12.2 弯曲的边界 139
12.3 小结 141
12.4 动手研究:高难数据 141
第13章 小批量处理 142
13.1 训练过程的可视化 143
13.2 分批处理 145
13.2.1 小批量样本集的构造 145
13.2.2 批量样本的训练 147
13.3 理解小批量 148
13.3.1 扭曲的路径 148
13.3.2 大型和小型批处理 150
13.3.3 批处理的优缺点 151
13.4 小结 152
13.5 动手研究:最小的批量 153
第14章 测试的禅意 154
14.1 过度拟合的威胁 154
14.2 测试的难题 156
14.3 小结 158
14.4 动手研究:思考测试 159
第15章 来做开发吧 160
15.1 准备样本数据 161
15.1.1 检查输入变量的范围 161
15.1.2 标准化输入变量 162
15.1.3 标准化的实践 163
15.2 调优超参数 164
15.2.1 选择历元的数量 164
15.2.2 调优隐藏节点数量 165
15.2.3 调优学习率 168
15.2.4 调优批量大小 170
15.3 最终测试 171
15.4 动手研究:实现99% 173
15.5 小结与展望 174
第三部分 深度学习
第16章 深度神经网络 178
16.1 针鼹数据集 179
16.2 使用Keras构建神经网络 180
16.2.1 计划与代码 181
16.2.2 加载数据 182
16.2.3 创建模型 183
16.2.4 编译模型 184
16.2.5 训练网络 184
16.2.6 描绘边界 185
16.2.7 实践中的Keras 185
16.3 更深一层 187
16.4 小结 188
16.5 动手研究:Keras游乐场 188
第17章 战胜过度拟合 190
17.1 详解过度拟合 190
17.1.1 过度拟合的成因 191
17.1.2 过度拟合与低度拟合 194
17.2 模型正则化 195
17.2.1 回顾深度网络 195
17.2.2 L1和L2 正则化法 198
17.3 正则化工具箱 202
17.4 小结 203
17.5 动手研究:保持简单 204
第18章 驯服深度网络 205
18.1 理解激活函数 205
18.1.1 激活函数存在的意义 206
18.1.2 S型函数及其运算结果 207
18.2 超越S型函数 211
18.2.1 初识ReLU 211
18.2.2 选择正确的函数 213
18.3 掌握更多的技巧 215
18.3.1 更好的权重初始化 215
18.3.2 加速梯度下降 216
18.3.3 高级正则化 217
18.3.4 最后一招:批处理标准化 219
18.4 小结 220
18.5 动手研究:10历元的挑战 220
第19章 超越香草神经网络 222
19.1 CIFAR-10数据集 223
19.1.1 初识CIFAR-10 223
19.1.2 难以分类的CIFAR数据 224
19.2 CNN的基本结构 225
19.2.1 图像就是图像 226
19.2.2 卷积 226
19.2.3 卷积层 229
19.3 运行卷积 230
19.4 小结 233
19.5 动手研究:大量的超参数 233
第20章 深度学习 235
20.1 深度学习的崛起 235
20.1.1 一场完美的革新风暴 236
20.1.2 临界点 237
20.1.3 未完待续 237
20.2 离谱的效率 238
20.3 路在何方 240
20.3.1 视觉之路 241
20.3.2 语言之路 241
20.3.3 图像生成之路 242
20.3.4 通天大道宽又阔 245
20.3.5 动手研究之路 246
20.4 你的旅程开始了 246
附录A Python语言入门 247
A.1 Python是什么样的 249
A.1.1 Python 是动态类型 250
A.1.2 Python中重要的缩进 250
A.2 Python语言的基本组成 251
A.2.1 数据类型和运算符 251
A.2.2 集合 252
A.2.3 字符串 253
A.2.4 循环 254
A.3 定义和调用函数 255
A.3.1 命名参数 256
A.3.2 默认参数 257
A.4 模块与包 257
A.4.1 定义与导入模块 257
A.4.2 主要习语 259
A.4.3 管理包 260
A.5 创建和使用对象 262
A.6 就这么多了 263
附录B 机器学习术语 264



---------------------------8070111 - 机器学习及其应用---------------------------


译者序
前言
致谢
作者简介
第1章引言
11走向智能机器
12良好的机器学习问题
13各种领域的应用实例
14数据表示
141时间序列预测
142练习数据集和现实问题数据集
15机器学习生产应用所需的领域知识
16多样化的数据:结构的/非结构的
17学习形式
171监督/直接学习
172无监督/间接学习
173强化学习
174基于自然过程的学习:进化、群智和免疫系统
18机器学习和数据挖掘
19机器学习技术中的基本线性代数知识
110机器学习的相关资源
第2章监督学习:基本原理和基础知识
21从观察中学习
22偏差和方差
23为什么学习是有效的:计算学习理论
24奥卡姆剃刀原理和防止过拟合
25归纳学习中的启发式搜索
251搜索假设空间
252集成学习
253学习系统的评估
26泛化误差估计
261留出法和随机子采样
262交叉验证
263自助法
27用于评估回归(数值预测)准确率的度量指标
271均方误差
272平均绝对误差
28用于评估分类(模式识别)准确率的度量指标
281误分类的误差
282混淆矩阵
283基于ROC曲线的分类器比较
29机器学习中的设计周期和问题概述
第3章统计学习
31机器学习和推断统计分析
32学习技术中的描述统计学
321表示数据的不确定性:概率分布
322概率分布的描述性度量
323数据样本的描述性度量
324正态分布
325数据相似性
33贝叶斯推理:推理的一种概率方法
331贝叶斯定理
332朴素贝叶斯分类器
333贝叶斯信念网络
34k近邻分类器
35判别函数和回归函数
351分类和判别函数
352数值预测和回归函数
353实用假设函数
36基于最小二乘误差准则的线性回归
361最小化误差平方和以及伪逆
362梯度下降优化方案
363最小均方算法
37用于分类任务的逻辑回归
38费希尔的线性判别和分类的阈值
381费希尔的线性判别
382阈值
39最小描述长度原则
391贝叶斯视角
392熵和信息
第4章学习支持向量机
41引言
42二元分类的线性判别函数
43感知器算法
44用于线性可分离数据的线性最大边距的分类器
45用于重叠类的线性软边距分类器
46核函数约简的特征空间
47非线性分类器
48支持向量机的回归器
481线性回归器
482非线性回归器
49将多元分类问题分解为二元分类任务
491一对所有
492一对一
410基本SVM技术的变体
第5章基于神经网络的学习
51走向认知机器
52神经元模型
521生物神经元
522人工神经元
523数学模型
53网络架构
531前馈网络
532循环网络
54感知器
541线性分类任务中感知器算法的局限性
542使用回归技术的线性分类器
543标准梯度下降优化方案:最速下降
55线性神经元和WidrowHoff学习规则
56误差修正的delta规则
57多层感知器网络和误差反向传播算法
571广义的delta规则
572收敛和局部最小值
573为梯度下降增加动量项
574误差反向传播算法的启发式方面
58MLP网络的多元判别
59径向基函数网络
510遗传神经系统
第6章模糊推理系统
61引言
62认知不确定性和模糊规则库
63知识的模糊量化
631模糊逻辑
632模糊集
633模糊集操作
634模糊关系
64模糊规则库和近似推理
641通过模糊关系量化规则
642输入的模糊化
643推理机制
644推断模糊集的去模糊化
65模糊推理系统的MAMDANI模型
651移动障碍物中的移动机器人导航
652抵押贷款评估
66TS模糊模型
67神经模糊推理系统
671ANFIS架构
672ANFIS如何学习
68遗传模糊系统
第7章数据聚类和数据转换
71无监督学习
72数据工程
721探索性数据分析:了解数据中的内容
722聚类分析:查找数据中的相似性
723数据转换:增强数据的信息内容
73基本聚类方法概述
731分割聚类
732层次聚类
733谱聚类
734使用自组织映射进行聚类
74K均值聚类
75模糊K均值聚类
76期望最大化算法和高斯混合聚类
761EM算法
762高斯混合模型
77一些有用的数据转换
771数据清洗
772衍生属性
773离散化数值属性
774属性约简技术
78基于熵的属性离散化方法
79用于属性约简的主成分分析
710基于粗糙集的属性约简方法
7101粗糙集基础
7102属性相关性分析
7103属性约简
第8章决策树学习
8.1引言
8.2决策树分类的例子
8.3评估决策树分裂的不纯度度量
8.3.1信息增益/熵减少
8.3.2增益比
8.3.3基尼系数
8.4 ID3、C45以及CART决策树
8.5树的剪枝
8.6决策树方法的优势和劣势
8.7模糊决策树
第9章商业智能与数据挖掘:技术和应用
9.1关于分析的简介
9.1.1机器学习、数据挖掘和预测分析
9.1.2基本分析技术
9.2CRISPDM(跨行业数据挖掘标准流程)模型
9.3数据仓库和在线分析处理
9.3.1基本概念
9.3.2数据库
9.3.3数据仓库:通用架构和OLAP操作
9.3.4数据仓库环境中的数据挖掘
9.4挖掘频繁模式和关联规则
9.4.1基本概念
9.4.2频繁模式和关联规则的强度的度量
9.4.3频繁项集挖掘方法
9.4.4从频繁项集生成关联规则
9.5智能信息检索系统
9.5.1文本检索
9.5.2图像检索
9.5.3音频检索
9.6应用和趋势
9.6.1数据挖掘应用程序
9.6.2数据挖掘趋势
9.7大数据技术
9.7.1新兴的分析方法
9.7.2更高级的可扩展的新兴技术
附录A用于搜索的遗传算法
附录B强化学习
附录C用于机器学习实验的真实生活应用的数据集
课后习题
参考文献

推荐

车牌查询
桂ICP备20004708号-3