作者 |
[美]陈志源(Zhiyuan Chen)刘兵(Bing Liu) 等 |
丛书名 |
智能科学与技术丛书 |
出版社 |
机械工业出版社 |
ISBN |
9782110251032 |
简要 |
简介 |
内容简介书籍计算机书籍 ---------------------------8061710 - 终身机器学习(原书第2版)--------------------------- 终身机器学习(Lifelong Machine Learning)第二版是对高级机器学习范式的介绍,通过积累过去的知识持续地学习,并将所学到的知识用于帮助未来的学习和问题解决。本书适用于对机器学习、数据挖掘、自然语言处理或模式识别感兴趣的学生、研究人员和从业人员。讲师随时可以在任何这些相关领域的课程中使用本书。 ---------------------------8081277 - 机器学习--------------------------- 本书展示了机器学习中核心的算法和理论,并阐明了算法的运行过程。本书综合了许多的研究成果,例如统计学、人工智能、哲学、信息论、生物学、认知科学、计算复杂性和控制论等,并以此来理解问题的背景、算法和其中的隐含假定。本书可作为计算机专业 本科生、研究生教材,也可作为相关领域研究人员、教师的参考书。 |
目录 |
[套装书具体书目] 8061710 - 终身机器学习(原书第2版) - 9787111632122 - 机械工业出版社 - 定价 79 8081277 - 机器学习 - 9787111109938 - 机械工业出版社 - 定价 69 ---------------------------8061710 - 终身机器学习(原书第2版)--------------------------- 译者序 前 言 致 谢 第1章 引言1 1.1 传统机器学习范式1 1.2 案例3 1.3 终身学习简史7 1.4 终身学习的定义9 1.5 知识类型和关键挑战14 1.6 评估方法和大数据的角色17 1.7 本书大纲18 第2章 相关学习范式20 2.1 迁移学习20 2.1.1 结构对应学习21 2.1.2 朴素贝叶斯迁移分类器22 2.1.3 迁移学习中的深度学习23 2.1.4 迁移学习与终身学习的区别24 2.2 多任务学习25 2.2.1 多任务学习中的任务相关性25 2.2.2 GO-MTL:使用潜在基础任务的多任务学习26 2.2.3 多任务学习中的深度学习28 2.2.4 多任务学习与终身学习的区别30 2.3 在线学习30 2.4 强化学习31 2.5 元学习32 2.6 小结34 第3章 终身监督学习35 3.1 定义和概述36 3.2 基于记忆的终身学习37 3.2.1 两个基于记忆的学习方法37 3.2.2 终身学习的新表达37 3.3 终身神经网络39 3.3.1 MTL网络39 3.3.2 终身EBNN40 3.4 ELLA:高效终身学习算法41 3.4.1 问题设定41 3.4.2 目标函数42 3.4.3 解决第一个低效问题43 3.4.4 解决第二个低效问题45 3.4.5 主动的任务选择46 3.5 终身朴素贝叶斯分类47 3.5.1 朴素贝叶斯文本分类47 3.5.2 LSC的基本思想49 3.5.3 LSC技术50 3.5.4 讨论52 3.6 基于元学习的领域词嵌入52 3.7 小结和评估数据集54 第4章 持续学习与灾难性遗忘56 4.1 灾难性遗忘56 4.2 神经网络中的持续学习58 4.3 无遗忘学习61 4.4 渐进式神经网络62 4.5 弹性权重合并63 4.6 iCaRL:增量分类器与表示学习65 4.6.1 增量训练66 4.6.2 更新特征表示67 4.6.3 为新类构建范例集68 4.6.4 在iCaRL中完成分类68 4.7 专家网关69 4.7.1 自动编码网关69 4.7.2 测量训练的任务相关性70 4.7.3 为测试选择最相关的专家71 4.7.4 基于编码器的终身学习71 4.8 生成式重放的持续学习72 4.8.1 生成式对抗网络72 4.8.2 生成式重放73 4.9 评估灾难性遗忘74 4.10 小结和评估数据集75 第5章 开放式学习79 5.1 问题定义和应用80 5.2 基于中心的相似空间学习81 5.2.1 逐步更新CBS学习模型82 5.2.2 测试CBS学习模型84 5.2.3 用于未知类检测的CBS学习84 5.3 DOC:深度开放式分类87 5.3.1 前馈层和一对其余层87 5.3.2 降低开放空间风险89 5.3.3 DOC用于图像分类90 5.3.4 发现未知类90 5.4 小结和评估数据集91 第6章 终身主题建模93 6.1 终身主题建模的主要思想93 6.2 LTM:终身主题模型97 6.2.1 LTM模型97 6.2.2 主题知识挖掘99 6.2.3 融合过去的知识100 6.2.4 Gibbs采样器的条件分布102 6.3 AMC:少量数据的终身主题模型102 6.3.1 AMC整体算法103 6.3.2 挖掘must-link知识104 6.3.3 挖掘cannot-link知识107 6.3.4 扩展的Pólya瓮模型108 6.3.5 Gibbs采样器的采样分布110 6.4 小结和评估数据集112 第7章 终身信息提取114 7.1 NELL:永不停止语言学习器114 7.1.1 NELL结构117 7.1.2 NELL中的提取器与学习118 7.1.3 NELL中的耦合约束120 7.2 终身评价目标提取121 7.2.1 基于推荐的终身学习122 7.2.2 AER算法123 7.2.3 知识学习124 7.2.4 使用过去知识推荐125 7.3 在工作中学习126 7.3.1 条件随机场127 7.3.2 一般依赖特征128 7.3.3 L-CRF算法130 7.4 Lifelong-RL:终身松弛标记法131 7.4.1 松弛标记法132 7.4.2 终身松弛标记法133 7.5 小结和评估数据集133 第8章 聊天机器人的持续知识学习135 8.1 LiLi:终身交互学习与推理136 8.2 LiLi的基本思想139 8.3 LiLi的组件141 8.4 运行示例142 8.5 小结和评估数据集142 第9章 终身强化学习144 9.1 基于多环境的终身强化学习146 9.2 层次贝叶斯终身强化学习147 9.2.1 动机147 9.2.2 层次贝叶斯方法148 9.2.3 MTRL算法149 9.2.4 更新层次模型参数150 9.2.5 对MDP进行采样151 9.3 PG-ELLA:终身策略梯度强化学习152 9.3.1 策略梯度强化学习152 9.3.2 策略梯度终身学习设置154 9.3.3 目标函数和优化154 9.3.4 终身学习的安全策略搜索156 9.3.5 跨领域终身强化学习156 9.4 小结和评估数据集157 第10章 结论及未来方向159 参考文献164 ---------------------------8081277 - 机器学习--------------------------- 第1章 引言 1.1 学习问题的标准描述 1.2 设计-个学习系统 1.2.1 选择训练经验 1.2.2 选择目标函数 1.2.3 选择目标函数的表示 1. 2.4 选择函数逼近算法 1.2.5 最终设计 1.3 机器学习的一些观点和问题 1.4 如何阅读本书 1.5 小结和补充读物 习题 第2章 概念学习和一般到特殊序 2.1 简介 2.2 概念学习任务 2.2.1 术语定义 2.2.2 归纳学习假设 2.3 作为搜索的概念学习 2.4 FIND-S:寻找极大特殊假设 2.5 变型空间和候选消除算法 2.5.1 表示 2.5.2 列表后消除算法 2.5.3 变型空间的更简洁表示 2.5.4 候选消除学习算法 2.5.5 算法的举例 2.6 关于变型空间和候选消除的说明 2.6.1 候选消除算法是否会收敛到正确的假设 2.6.2 下一步需要什么样的训练样例 2.6.3 怎样使用不完全学习概念 2.7 归纳偏置 2.7.1 -个有偏的假设空间 2.7.2 无偏的学习器 2.7.3 无偏学习的无用性 2.8 小始和补充读物 习题 第3章 决策树学习 3.1 简介 3.2 决策树表示法 3.3 决策树学习的适用问题 3.4 基本的决策树学习算法 3.4.1 哪个属性是最佳的分类属性 3.4.2 举例 3.5 决策树学习中的假设空间搜索 3.6 决策树学习的归纳偏置 3.6.1 限定偏置和优选偏置 3.6.2 为什么短的假设优先 3.7 决策树学习的常见问题 3.7.1 避免过度拟合数据 3. 7.2 合并连续值属性 3.7.3 属性选择的其他度量标准 3.7.4 处理缺少属性值的训练样例 3.7.5 处理不同代价的属性 3.8 小结和补充读物 习题 第4章 人工神经网络 4.1 简介 4.2 神经网络表示 4.3 适合神经网络学习的问题 4.4 感知器 4.4.1 感知器的表征能力 4. 4.2 感知器训练法则 4.4.3 梯度下降和delta法则 4.4.4 小结 4.5 多层网络和反向传播算法 4.5.1 可微阈值单元 4.5.2 反向传播算法 4.5.3 反向传播法则的推导 4.6 反向传播算法的说明 4.6.1 收敛性和局部极小值 4.6.2 前馈网络的表征能力 4.6.3 假设空间搜索和归纳偏置 4.6.4 隐藏层表示 4.6.5 泛化、过度拟合和停止判据 4.7 举例:人脸识别 4.7.1 任务 4.7.2 设计要素 4.7.3 学习到的隐藏层表示 4.8 人工神经网络的高级课题 4.8.1 其他可选的误差函数 4.8.2 其他可选的误差最小化过程 4.8.3 递归网络 4.8.4 动态修改网络结构 4.9 小结和补充读物 习题 第5章 评估假设 5.1 动机 5.2 估计假设精度 5.2.1 样本错误率和真实错误率 5.2.2 离散值假设的置信区间 5.3 采样理论基础 5.3.1 错误率估计和二项比例估计 5.3.2 二项分布 5.3.3 均值和方差 5.3.4 估计量、偏差和方差 5.3.5 置信区间 5.3.6 双侧和单侧边界 5.4 推导置信区间的一般方法 5.5 两个假设错误率间的差异 5.6 学习算法比较 5.6. 1 配对t测试 5.6.2 实际考虑 5.7 小结和补充读物 习题 第6章 贝叶斯学习 6.1 简介 6.2 贝叶斯法则 6.3 贝叶斯法则和概念学习 6.3.1 BRUTE-FORCE贝叶斯概念学习 6.3.2 MAP假设和一致学习器 6.4 极大似然和最小误差平方假设 6.5 用于预测概率的极大似然假设 6.6 最小描述长度准则 6.7 贝叶斯最优分类器 6.8 GIBBS算法 6.9 朴素贝叶斯分类器 6.10 举例:学习分类文本 6.11 贝叶斯信念网 6.11.1 条件独立性 6.11.2 表示 6.11.3 推理 6.11.4 学习贝叶斯信念网 6.11.5 贝叶斯网的梯度上升训练 6.11.6 学习贝叶斯网的结构 6.12 EM算法 6.12.1 估计k个高斯分布的均值 6.12.2 EM算法的一般表述 6.12.3 k均值算法的推导 6.13 小结和补充读物 习题 第7章 计算学习理论 7.1 简介 7.2 可能学习近似正确假设 7.2.1 问题框架 7.2.2 假设的错误率 7.2.3 PAC可学习性 7.3 有限假设空间的样本复杂度 7.3.1 不可知学习和不一致假设 7.3.2 布尔文字的合取是PAC可学习的 7.3.3 其他概念类别的PAC可学习性 7.4 无限假设空间的样本复杂度 7.4.1 打散一个实例集合 7.4.2 Vapnik-Chervonenkis维度 7.4.3 样本复杂度和VC维 7.4.4 神经网络的VC维 7.5 学习的出错界限模型 7.5.1 FIND-S算法的出错界限 7.5.2 HALVING算法的出错界限 7.5.3 最优出错界限 7.5.4 加权多数算法 7.6 小结和补充读物 习题 第8章 基于实例的学习 8.1 简介 8.2 k-近邻算法 8.2.1 距离加权最近邻算法 8.2.2 对k-近邻算法的说明 8.2.3 术语注解 8.3 局部加权回归 8.3.1 局部加权线性回归 8.3.2 局部加权回归的说明 8.4 径向基函数 8.5 基于案例的推理 8.6 对消极学习和积极学习的评论 8.7 小结和补充读物 习题 第9章 遗传算法 9.1 动机 9.2 遗传算法 9.2.1 表示假设 9.2.2 遗传算子 9.2.3 适应度函数和假设选择 9.3 举例 9.4 假设空间搜索 9.5 遗传编程 9.5.1 程序表示 9.5.2 举例 9.5.3 遗传编程说明 9.6 进化和学习模型 9.6.1 拉马克进化 9.6.2 鲍德温效应 9.7 并行遗传算法 9.8 小结和补充读物 习题 第10章 学习规则集合 10.1 简介 10.2 序列覆盖算法 10.2.1 一般到特殊的柱状搜索 10.2.2 几种变型 10.3 学习规则集:小结 10.4 学习一阶规则 10.4.1 一阶Horn子句 10.4.2 术语 10.5 学习一阶规则集:FOIL 10.5.1 FOIL中的候选特化式的生成 10.5.2 引导FOIL的搜索 10.5.3 学习递归规则集 10.5.4 FOIL小结 10.6 作为逆演绎的归纳 10.7 逆归纳 10.7.1 一阶归纳 10.7.2 逆归纳:一阶情况 10.7.3 逆归纳小结 10.7.4 泛化、-包容和涵蕴 10.7.5 PROGOL 10.8 小结和补充读物 习题 第11章 分析学习 11.1 简介 11.2 用完美的领域理论学习:PROLOG-EBG 11.3 对基于解释的学习的说明 11.3.1 发现新特征 11.3.2 演绎学习 11.3.3 基于解释的学习的归纳偏置 11.3.4 知识级的学习 11.4 搜索控制知识的基于解释的学习 11.5 小结和补充读物 习题 第12章 归纳和分析学习的结合 12.1 动机 12.2 学习的归纳-分析途径 12.2.1 学习问题 12.2.2 假设空间搜索 12.3 使用先验知识得到初始假设 12.3.1 KBANN算法 12.3.2 举例 12.3.3 说明 12.4 使用先验知识改变搜索目标 12.4.1 TANGENTPROP算法 12.4.2 举例 12.4.3 说明 12.4.4 EBNN算法 12.4.5 说明 12.5 使用先验知识来扩展搜索算子 12.5.1 FOCL算法 12.5.2 说明 12.6 研究现状 12.7 小结和补充读物 习题 第13章 增强学习 13.1 简介 13.2 学习任务 13.3 Q学习 13.3.1 Q函数 13.3.2 一个学习Q的算法 13.3.3 举例 13.3.4 收敛性 13.3.5 实验策略 13.3.6 更新序列 13.4 非确定性回报和动作 13.5 时间差分学习 13.6 从样例中泛化 13.7 与动态规划的联乐 13.8 小结和补充读物 习题 附录 符号约定 |