| 作者 |
| [美] 杰瑞米·瓦特(Jeremy Watt) 雷萨·博哈尼(Reza Borhani) 阿格洛斯·K.卡萨格罗斯(Aggelos K. Katsaggelos) |
| 丛书名 |
| 智能科学与技术丛书 |
| 出版社 |
| 机械工业出版社 |
| ISBN |
| 9787111611967 |
| 简要 |
| 简介 |
| 内容简介书籍计算机书籍 本书为了解机器学习提供了一种独特的途径。书中包含了新颖、直观而又严谨的基本概念描述,它们是研究课题、制造产品、修补漏洞以及实践不可或缺的部分。本书按照几何直觉、算法思想和实际应用(纵贯计算机视觉、自然语言处理、经济学、神经科学、推荐系统、物理学和生物学等学科)的顺序,为读者提供了深入浅出的基础知识和解决实际问题所需的实用工具。本书还包含了基于Python和MATLAB/OCTAVE语言的深入习题,以及对数值优化前沿技术的全面讲解。本书可为机器学习、计算机科学、电子工程、信号处理以及数值优化等领域的学生提供重要的学习资源,也可为这些领域的研究人员和从业者提供理想的参考资料。 |
| 目录 |
| 译者序 前言 第1章引言 11教计算机区分猫和狗 12预测学习问题 121回归 122分类 13特征设计 14数值优化 15小结 第一部分基本工具及概念 第2章数值优化基础 21微积分定义的最优性 211泰勒级数逼近 212最优性的一阶条件 213凸性的便利 22优化数值方法 221概览 222停止条件 223梯度下降 224牛顿法 23小结 24习题 第3章回归 31线性回归基础 311符号和建模 312用于线性回归的最小二乘代价函数 313最小二乘代价函数的最小化 314所学模型的效力 315预测新输入数据的值 32知识驱动的回归特征设计 33非线性回归和l2正则化 331逻辑回归 332非凸代价函数和l2正则化 34小结 35习题 第4章分类 41感知机代价函数 411基本感知机模型 412softmax代价函数 413间隔感知机 414间隔感知机的可微近似 415所学分类器的精度 416预测新输入数据的标签 417哪个代价函数会产生最好的结果 418感知机和计数代价的关联 42逻辑回归视角下的softmax代价 421阶梯函数和分类 422凸逻辑回归 43支持向量机视角下的间隔感知机 431寻找最大间隔超平面 432硬间隔支持向量机问题 433软间隔支持向量机问题 434支持向量机和逻辑回归 44多分类 441一对多的多分类 442多分类softmax分类 443所学多分类器的精度 444哪种多分类方法表现最好 45面向分类的知识驱动特征设计 46面向真实数据类型的直方图特征 461文本数据的直方图特征 462图像数据的直方图特征 463音频数据的直方图特征 47小结 48习题 第二部分完全数据驱动的机器学习工具 第5章回归的自动特征设计 51理想回归场景中的自动特征设计 511向量逼近 512从向量到连续函数 513连续函数逼近 514连续函数逼近的常见基 515获取权重 516神经网络的图表示 52真实回归场景中的自动特征设计 521离散化的连续函数逼近 522真实回归场景 53回归交叉验证 531诊断过拟合与欠拟合问题 532留出交叉验证 533留出交叉验证的计算 534k折交叉验证 54哪个基最好 541理解数据背后的现象 542实践方面的考虑 543什么时候可任意选择基 55小结 56习题 57关于连续函数逼近的注释 第6章分类中的自动特征设计 61理想分类场景中的自动特征设计 611分段连续函数逼近 612指示函数的形式化定义 613指示函数逼近 614获取权重 62真实分类场景中的自动特征设计 621离散化的指示函数逼近 622真实的分类场景 623分类器精度和边界定义 63多分类 631一对多的多分类 632多分类softmax分类 64分类交叉验证 641留出交叉验证 642留出交叉验证的计算 643k折交叉验证 644一对多多分类的k折交叉验证 65哪个基最好 66小结 67习题 第7章核、反向传播和正则化交叉验证 71固定特征核 711线性代数基本定理 712核化代价函数 713核化的价值 714核的例子 715核作为相似矩阵 72反向传播算法 721计算两层网络代价函数的梯度 722计算三层神经网络的梯度 723动量梯度下降 73l2正则化交叉验证 731l2正则化和交叉验证 732回归的k折正则化交叉验证 733分类的正则化交叉验证 74小结 75更多的核计算 751核化不同的代价函数 752傅里叶核——标量输入 753傅里叶核——向量输入 第三部分大规模数据机器学习方法 第8章高级梯度算法 81梯度下降法的固定步长规则 811梯度下降法和简单的二次代理 812有界曲率函数和最优保守步长规则 813如何使用保守固定步长规则 82梯度下降的自适应步长规则 821回溯线性搜索的自适应步长规则 822如何使用自适应步长规则 83随机梯度下降 831梯度分解 832随机梯度下降迭代 833随机梯度下降的价值 834随机梯度下降的步长规则 835在实践中如何使用随机梯度下降法 84梯度下降方案的收敛性证明 841利普希茨常数固定步长梯度下降的收敛性 842回溯线性搜索梯度下降的收敛性 843随机梯度法的收敛性 844面向凸函数的固定步长梯度下降的收敛速度 85计算利普希茨常数 86小结 87习题 第9章降维技术 91数据的降维技术 911随机子采样 912K均值聚类 913K均值问题的优化 92主成分分析 93推荐系统 931矩阵填充模型 932矩阵填充模型的优化 94小结 95习题 第四部分附录 附录A基本的向量和矩阵运算 附录B向量微积分基础 附录C基本的矩阵分解及伪逆 附录D凸几何 参考文献 索引 |