[套装书]机器学习与人工智能:从理论到实践+机器学习中的加速一阶优化算法(2册)

作者
阿米特·V. 乔希 林宙辰 李欢 方聪
丛书名
智能科学与技术丛书
出版社
机械工业出版社
ISBN
9782108121711
简要
简介
内容简介书籍计算机书籍 ---------------------------8083086 - 机器学习与人工智能:从理论到实践--------------------------- 本书全面介绍了人工智能(AI)和机器学习(ML)的理论和应用。与仅仅从理论或实践的角度来看待这个领域不同,本书将这两个角度结合在了一起,给予全面的理解。第1部分介绍了人工智能和ML的概念以及它们的起源和现状。第2和第3部分深入探讨了静态ML技术和动态ML技术的概念和理论方面。第4部分描述了所提出的技术可以应用的实际应用。第5部分向用户介绍了解决现实ML问题的一些实现策略。 ---------------------------8082387 - 机器学习中的加速一阶优化算法--------------------------- 本书以介绍机器学习中的优化算法为主要内容,以当前机器学习会议的热门话题加速算法为主线,涵盖机器学习中常用的凸优化、非凸优化,以及随机优化和分布式优化。
目录
[套装书具体书目]
8082387 - 机器学习中的加速一阶优化算法 - 9787111685005 - 机械工业出版社 - 定价 109
8083086 - 机器学习与人工智能:从理论到实践 - 9787111688129 - 机械工业出版社 - 定价 99



---------------------------8083086 - 机器学习与人工智能:从理论到实践---------------------------



前言
致谢
第一部分 简  介
第1章 人工智能和机器学习简介 2
1.1 引言 2
1.2 什么是人工智能 2
1.3 什么是机器学习 3
1.4 本书的结构 3
1.4.1 简介 4
1.4.2 机器学习 4
1.4.3 构建端到端管道 4
1.4.4 人工智能 4
1.4.5 实现 5
1.4.6 结语 5
第2章 人工智能和机器学习的基本概念 6
2.1 引言 6
2.2 大数据和非大数据 6
2.2.1 什么是大数据 6
2.2.2 为什么我们应该区别对待大数据 6
2.3 学习类型 7
2.3.1 监督学习 7
2.3.2 无监督学习 7
2.3.3 强化学习 8
2.4 基于时间的机器学习方法 8
2.4.1 静态学习 8
2.4.2 动态学习 8
2.5 维数 8
2.6 线性和非线性 10
2.7 奥卡姆剃刀原理 12
2.8 “没有免费的午餐”定理 14
2.9 收益递减规律 14
2.10 机器学习的早期趋势 14
2.11 小结 15
第3章 数据的理解、表示和可视化 16
3.1 引言 16
3.2 理解数据 16
3.2.1 理解实体 17
3.2.2 理解属性 17
3.2.3 理解数据类型 18
3.3 数据的表示和可视化 19
3.3.1 主成分分析 19
3.3.2 线性判别分析 21
3.4 小结 22
第二部分 机 器 学 习
第4章 线性方法 26
4.1 引言 26
4.2 线性模型和广义线性模型 27
4.3 线性回归 27
4.3.1 定义问题 27
4.3.2 解决问题 27
4.4 正则化的线性回归 28
4.4.1 正则化 28
4.4.2 岭回归 29
4.4.3 Lasso回归 29
4.5 广义线性模型 30
4.6 k最近邻算法 30
4.6.1 KNN的定义 31
4.6.2 分类和回归 32
4.6.3 KNN的其他变体 32
4.7 小结 32
第5章 感知器和神经网络 34
5.1 引言 34
5.2 感知器 34
5.3 多层感知器或人工神经网络 35
5.3.1 前馈操作 35
5.3.2 非线性多层感知器或非线性人工神经网络 36
5.3.3 训练多层感知器 36
5.3.4 隐藏层 38
5.4 径向基函数网络 38
5.5 过度拟合与正则化 40
5.5.1 L1和L2正则化 40
5.5.2 丢弃正则化 41
5.6 小结 41
第6章 决策树 42
6.1 引言 42
6.2 为什么使用决策树 43
6.3 构建决策树的算法 43
6.4 回归树 44
6.5 分类树 45
6.6 决策指标 45
6.6.1 误分类误差 46
6.6.2 基尼指数 46
6.6.3 交叉熵或偏差 46
6.7 卡方自动交叉检验 47
6.8 训练决策树 47
6.9 集成决策树 48
6.10 Bagging集成树 48
6.11 随机森林 49
6.12 Boosted集成树 49
6.12.1 AdaBoost 50
6.12.2 梯度提升 50
6.13 小结 50
第7章 支持向量机 51
7.1 引言 51
7.2 动机和范围 51
7.2.1 扩展到多元分类 51
7.2.2 非线性情况的扩展 53
7.3 支持向量机理论 53
7.4 可分离性和间隔 54
7.4.1 正则化和软间隔SVM 54
7.4.2 松弛变量的使用 54
7.5 非线性与核函数的使用 55
7.5.1 径向基函数 55
7.5.2 多项式函数 56
7.5.3 Sigmoid 56
7.6 风险最小化 56
7.7 小结 56
第8章 概率模型 57
8.1 引言 57
8.2 判别模型 58
8.2.1 最大似然估计 58
8.2.2 贝叶斯方法 58
8.2.3 最大似然估计和贝叶斯方法的比较 59
8.3 生成模型 61
8.3.1 混合方法 62
8.3.2 贝叶斯网络 62
8.4 一些有用的概率分布 62
8.4.1 正态分布或高斯分布 63
8.4.2 伯努利分布 64
8.4.3 二项分布 65
8.4.4 伽马分布 66
8.4.5 泊松分布 67
8.5 小结 70
第9章 动态规划和强化学习 71
9.1 引言 71
9.2 动态规划的基本方程 71
9.3 动态规划下的问题类别 72
9.4 强化学习 73
9.4.1 强化学习的特点 73
9.4.2 框架和算法 73
9.5 探索和开发 74
9.6 强化学习应用示例 75
9.7 强化学习理论 76
9.8 小结 77
第10章 演化算法 78
10.1 引言 78
10.2 传统方法的瓶颈 78
10.3 达尔文的进化论 80
10.4 遗传规划 80
10.5 群体智能 82
10.6 蚁群优化 83
10.7 模拟退火 84
10.8 小结 84
第11章 时间序列模型 85
11.1 引言 85
11.2 平稳性 85
11.3 自回归和移动平均模型 87
11.3.1 自回归过程 87
11.3.2 移动平均过程 88
11.3.3 自回归移动平均过程 88
11.4 差分自回归移动平均模型 88
11.5 隐马尔可夫模型 89
11.6 条件随机场 91
11.7 小结 92
第12章 深度学习 93
12.1 引言 93
12.2 现代深度学习的起源 94
12.3 卷积神经网络 95
12.3.1 一维卷积 95
12.3.2 二维卷积 95
12.3.3 CNN的架构 96
12.3.4 训练CNN 98
12.4 循环神经网络 98
12.4.1 RNN的局限性 99
12.4.2 长短期记忆RNN 99
12.4.3 LSTM的优点 100
12.4.4 LSTM-RNN的研究现状 100
12.5 小结 101
第13章 机器学习的新兴趋势 102
13.1 引言 102
13.2 迁移学习 102
13.3 生成对抗网络 103
13.4 量子计算 104
13.4.1 量子理论 104
13.4.2 量子纠缠 105
13.4.3 量子叠加 105
13.4.4 量子粒子计算 105
13.5 自动机器学习 105
13.6 小结 106
第14章 无监督学习 107
14.1 引言 107
14.2 聚类 107
14.2.1 k均值聚类 108
14.2.2 k均值聚类的改进 110
14.3 成分分析 110
14.4 自组织映射 111
14.5 自动编码神经网络 112
14.6 小结 113
第三部分 构建端到端管道
第15章 特征化 116
15.1 引言 116
15.2 UCI:成人工资预测器 116
15.3 识别原始数据,将信息与噪声分离 117
15.4 构建特征集 119
15.4.1 特征构建的标准选项 119
15.4.2 特征构建的自定义选项 123
15.5 处理缺失值 123
15.6 可视化特征 124
15.6.1 数值特征 124
15.6.2 分类特征 127
15.7 小结 130
第16章 设计和调整模型管道 131
16.1 引言 131
16.2 选择技术或算法 131
16.3 划分数据 132
16.4 训练 134
16.5 准确率度量 135
16.6 特征的可解释性 135
16.7 实际问题 136
16.7.1 数据泄露 136
16.7.2 巧合与因果关系 137
16.7.3 未知类别 138
16.8 小结 138
第17章 性能度量 139
17.1 引言 139
17.2 基于数值误差的指标 140
17.2.1 平均绝对误差 140
17.2.2 均方误差 140
17.2.3 均方根误差 140
17.2.4 归一化误差 140
17.3 基于分类误差的指标 141
17.3.1 准确率 141
17.3.2 精度和召回率 141
17.3.3 ROC曲线分析 142
17.4 假设检验 144
17.4.1 背景 144
17.4.2 假设检验的步骤 144
17.4.3 A/B检验 145
17.5 小结 145
第四部分 人工智能
第18章 分类 148
18.1 引言 148
18.2 分类中的现实问题示例 148
18.3 垃圾邮件检测 149
18.3.1 定义范围 149
18.3.2 假设 149
18.3.3 数据偏度 150
18.3.4 监督学习 151
18.3.5 特征工程 151
18.3.6 模型训练 151
18.3.7 迭代优化过程 152
18.4 小结 152
第19章 回归 153
19.1 引言 153
19.2 预测房地产价格 153
19.2.1 定义回归特定问题 153
19.2.2 收集标记数据 154
19.2.3 特征工程 156
19.2.4 模型选择 157
19.2.5 模型性能 158
19.3 回归的其他应用 158
19.4 小结 158
第20章 排名 159
20.1 引言 159
20.2 度量排名性能 159
20.3 搜索结果排名和谷歌的
PageRank 161
20.4 排名系统中使用的技术 162
20.5 小结 163
第21章 推荐系统 164
21.1 引言 164
21.2 协同过滤 164
21.3 亚马逊的个人购物体验 166
21.3.1 基于上下文的推荐 167
21.3.2 基于个性化的推荐 167
21.4 Netflix的流媒体视频推荐 168
21.5 小结 169
第五部分 实  现
第22章 Azure机器学习 172
22.1 引言 172
22.2 Azure机器学习工作室 172
22.3 使用AML工作室构建机器学习管道 175
22.3.1 获取数据 175
22.3.2 数据预处理 176
22.3.3 训练分类器模型 178
22.4 评分和性能指标 179
22.5 小结 182
第23章 开源机器学习库 183
23.1 引言 183
23.2 机器学习库的选择 183
23.3 scikit-learn库 185
23.3.1 开发环境 185
23.3.2 导入数据 185
23.3.3 数据预处理 186
23.3.4  使用分层抽样划分数据 186
23.3.5 训练多分类模型 187
23.3.6 计算指标 188
23.3.7 使用替代模型 188
23.4 模型调整和优化 189
23.5 AML工作室和scikit-learn之间的比较 190
23.6 小结 190
第24章 亚马逊的机器学习工具包:SageMaker 193
24.1 引言 193
24.2 设置SageMaker 193
24.3 上传数据到S3存储 196
24.4 使用Python编写机器学习管道 198
24.5 小结 200
第六部分 结  语
第25章 本书总结和下一步工作 202
25.1 总结 202
25.2 下一步工作 203
参考文献 204



---------------------------8082387 - 机器学习中的加速一阶优化算法---------------------------


推荐序一
推荐序二
推荐序三
中文版前言
英文版前言
致谢
作者介绍
符号表
第 1 章 绪论 1
1.1 机器学习中的优化问题举例1
1.1.1 正则化的经验损失模型 1
1.1.2 矩阵填充及低秩学习模型3
1.2 一阶优化算法 3
1.3 加速算法中的代表性工作综述 4
1.4 关于本书 7
参考文献7
第 2 章 无约束凸优化中的加速算法 14
2.1 梯度下降法 14
2.2 重球法 15
2.3 加速梯度法 16
2.4 求解复合凸优化问题的加速梯度法 23
2.4.1 第一种 Nesterov 加速邻近梯度法 23
2.4.2 第二种 Nesterov 加速邻近梯度法 27
2.4.3 第三种 Nesterov 加速邻近梯度法 31
2.5 非精确加速邻近梯度法 33
2.5.1 非精确加速梯度法 42
2.5.2 非精确加速邻近点法 42
2.6 重启策略 43
2.7 平滑策略 45
2.8 高阶加速方法 50
2.9 从变分的角度解释加速现象55
参考文献60
第 3 章 带约束凸优化中的加速算法 63
3.1 线性等式约束问题的一些有用结论 63
3.2 加速罚函数法 66
3.2.1 一般凸目标函数 71
3.2.2 强凸目标函数71
3.3 加速拉格朗日乘子法 72
3.3.1 原始问题的解74
3.3.2 加速增广拉格朗日乘子法76
3.4 交替方向乘子法及非遍历意义下的加速算法 77
3.4.1 情形 1:一般凸和非光滑目标函数 82
3.4.2 情形 2:强凸非光滑目标函数 83
3.4.3 情形 3:一般凸和光滑目标函数 85
3.4.4 情形 4:强凸和光滑目标函数 87
3.4.5 非遍历意义收敛速度 88
3.5 原始–对偶算法98
3.5.1 情形 1:两个函数均非强凸 100
3.5.2 情形 2:只有一个函数强凸 101
3.5.3 情形 3:两个函数均强凸103
3.6 Frank-Wolfe 算法 104
参考文献108
第 4 章 非凸优化中的加速梯度算法 112
4.1 带冲量的邻近梯度法 112
4.1.1 收敛性理论 113
4.1.2 单调加速邻近梯度法 120
4.2 快速收敛到临界点 120
4.2.1 能够检测强凸性质的 AGD121
4.2.2 负曲率下降算法 123
4.2.3 非凸加速算法125
4.3 快速逃离鞍点 128
4.3.1 几乎凸的情形128
4.3.2 完全非凸情形130
4.3.3 非凸加速梯度下降法 131
参考文献136
第 5 章 加速随机算法 138
5.1 各自凸情况 139
5.1.1 加速随机坐标下降算法 140
5.1.2 方差缩减技巧基础算法 147
5.1.3 加速随机方差缩减方法 152
5.1.4 黑盒加速算法158
5.2 各自非凸情况 160
5.3 非凸情况 166
5.3.1 随机路径积分差分估计子167
5.3.2 冲量加速 173
5.4 带约束问题 174
5.5 无穷情况 197
参考文献200
第 6 章 加速并行算法 202
6.1 加速异步算法 202
6.1.1 异步加速梯度下降算法 203
6.1.2 异步加速随机坐标下降算法 215
6.2 加速分布式算法227
6.2.1 中心化模式 227
6.2.2 去中心化模式232
参考文献243
第 7 章 总结 246
参考文献247
附录 A 数学基础 249
A.1 代数与概率 249
A.2 凸分析 250
A.3 非凸分析 257
参考文献259
缩略语表260
索引 262

推荐

车牌查询
桂ICP备20004708号-3