[套装书]自然语言处理基础教程+自然语言处理中的贝叶斯分析(原书第2版)(2册)

作者
王刚 郭蕴 王晨 等
丛书名
人工智能技术丛书
出版社
机械工业出版社
ISBN
9782111161412
简要
简介
内容简介书籍计算机书籍 ---------------------------8084692 - 自然语言处理基础教程--------------------------- 本书面向初学者介绍了自然语言处理的基础知识,包括词法分析、句法分析、基于机器学习的文本分析、深度学习与神经网络、词嵌入与词向量以及自然语言处理与卷积神经网络、循环神经网络技术及应用。本书深入浅出,案例丰富,可作为高校人工智能、大数据、计算机及相关专业本科生的教材,也可供对自然语言处理有兴趣的技术人员作为参考书。 ---------------------------8077118 - 自然语言处理中的贝叶斯分析(原书第2版)--------------------------- 本书涵盖了流利阅读NLP中贝叶斯学习方向的论文以及从事该领域的研究所需的方法和算法。这些方法和算法部分来自于机器学习和统计学,部分是针对NLP开发的。我们涵盖推理技术,如马尔科夫链、蒙特卡罗抽样和变分推理、贝叶斯估计和非参数建模。为了应对该领域的快速变化,本书新版增加了一个新的章节,关于贝叶斯背景下的表现学习和神经网络。我们还将介绍贝叶斯统计的基本概念,如先验分布、共轭性和生成式建模。最后,我们回顾了一些基本的NLP建模技术,如语法建模、神经网络和表示学习,以及它们在贝叶斯分析中的应用。
目录
[套装书具体书目]
8077118 - 自然语言处理中的贝叶斯分析(原书第2版) - 9787111669579 - 机械工业出版社 - 定价 89
8084692 - 自然语言处理基础教程 - 9787111692591 - 机械工业出版社 - 定价 69



---------------------------8084692 - 自然语言处理基础教程---------------------------


前言
第1章 自然语言处理概述1
1.1 自然语言处理的基本概念1
1.1.1 什么是自然语言处理1
1.1.2 自然语言处理的层次2
1.1.3 自然语言处理的发展历程3
1.2 自然语言处理技术面临的困难6
1.2.1 歧义6
1.2.2 知识的获取、表达及运用7
1.2.3 计算问题8
1.3 自然语言处理的主要研究任务和应用8
1.3.1 自然语言处理的主要研究任务8
1.3.2 自然语言处理的典型应用10
1.4 搭建自然语言处理开发环境11
1.4.1 Anaconda11
1.4.2 scikit-learn15
1.4.3 Jupyter Notebook15
1.5 本章小结16
1.6 习题17
第2章 词法分析18
2.1 什么是词法分析18
2.2 分词19
2.2.1 中文分词简介19
2.2.2 基于词典的分词方法20
2.2.3 基于统计的分词方法21
2.2.4 实例—使用N-gram语言模型进行语法纠正24
2.2.5 中文分词工具简介27
2.2.6 实例—使用jieba进行高频词提取30
2.3 关键词提取32
2.3.1 TF-IDF算法32
2.3.2 TextRank算法33
2.3.3 实例—提取文本关键词34
2.4 词性标注40
2.4.1 词性标注简介40
2.4.2 隐马尔可夫模型41
2.4.3 Viterbi算法43
2.4.4 最大熵模型44
2.5 命名实体识别46
2.5.1 命名实体识别简介46
2.5.2 条件随机场模型47
2.5.3 实例—使用jieba进行日期识别48
2.6 本章小结52
2.7 习题53
第3章 句法分析54
3.1 什么是句法分析54
3.2 句法分析树库及性能评测56
3.2.1 句法分析语料库56
3.2.2 句法分析模型的性能评测59
3.3 概率上下文无关文法59
3.4 依存句法分析62
3.4.1 基于图模型的依存句法分析63
3.4.2 基于转移模型的依存句法分析63
3.5 中文句法分析工具简介65
3.6 实例—中文句法分析66
3.7 本章小结68
3.8 习题68
第4章 基于机器学习的文本分类69
4.1 机器学习简介69
4.1.1 scikit-learn简介71
4.1.2 机器学习基本概念72
4.1.3 机器学习问题分类73
4.2 朴素贝叶斯分类器76
4.3 逻辑回归分类器80
4.4 支持向量机分类器84
4.5 文本聚类89
4.6 实例—垃圾邮件分类94
4.7 本章小结99
4.8 习题99
第5章 深度学习与神经网络101
5.1 深度学习与神经网络简介101
5.2 人工神经网络102
5.2.1 生物神经元102
5.2.2 感知器103
5.2.3 激活函数105
5.2.4 神经网络110
5.3 前馈神经网络110
5.3.1 前馈神经网络的结构110
5.3.2 前向传播111
5.3.3 损失函数112
5.3.4 反向传播算法113
5.3.5 优化方法114
5.4 深度学习框架116
5.4.1 TensorFlow116
5.4.2 Keras118
5.4.3 PyTorch119
5.4.4 PaddlePaddle120
5.5 实例—使用MLP实现手写数字识别122
5.5.1 数据准备122
5.5.2 创建MLP122
5.5.3 模型训练123
5.5.4 模型评价124
5.6 本章小结125
5.7 习题126
第6章 词嵌入与词向量127
6.1 文本向量化127
6.2 One-Hot编码128
6.3 词嵌入130
6.3.1 什么是词嵌入130
6.3.2 词嵌入的实现131
6.3.3 语义信息132
6.4 Word2Vec133
6.4.1 Word2Vec简介133
6.4.2 Word2Vec的应用134
6.4.3 使用gensim包训练词向量136
6.5 Doc2Vec138
6.5.1 PV-DM139
6.5.2 PV-DBOW140
6.6 实例—利用Doc2Vec计算文档相似度140
6.6.1 准备语料库140
6.6.2 定义和训练模型141
6.6.3 分析文本相似度142
6.7 本章小结145
6.8 习题145
第7章 卷积神经网络与自然语言处理146
7.1 卷积神经网络简介146
7.1.1 深层神经网络用于图像处理存在的问题146
7.1.2 什么是卷积148
7.1.3 填充150
7.1.4 步长151
7.1.5 什么是卷积神经网络151
7.2 应用卷积神经网络解决自然语言处理问题152
7.2.1 NLP中的卷积层152
7.2.2 NLP中的池化层154
7.2.3 NLP中CNN的基本架构155
7.3 CNN在应用中的超参数选择156
7.3.1 激活函数156
7.3.2 卷积核的大小和个数156
7.3.3 dropout层156
7.3.4 softmax分类器157
7.4 实例—使用CNN实现新闻文本分类158
7.4.1 准备数据158
7.4.2 定义和训练模型163
7.5 本章小结165
7.6 习题166
第8章 循环神经网络与自然语言处理167
8.1 循环神经网络的基本结构168
8.2 循环神经网络应用于自然语言处理170
8.2.1 序列到类别170
8.2.2 同步序列到序列171
8.2.3 异步序列到序列172
8.3 循环神经网络的训练173
8.3.1 随时间反向传播算法173
8.3.2 权重的更新174
8.3.3 梯度消失与梯度爆炸175
8.4 长短期记忆网络175
8.4.1 细胞状态177
8.4.2 门控机制 177
8.5 门控循环单元网络 181
8.6 更深的网络184
8.6.1 堆叠循环神经网络184
8.6.2 双向循环神经网络185
8.7 实例—使用LSTM网络实现文本情感分析186
8.7.1 数据准备186
8.7.2 构建和训练模型187
8.8 本章小结190
8.9 习题191
第9章 序列到序列模型与注意力机制192
9.1 序列到序列模型192
9.1.1 什么是序列到序列模型192
9.1.2 编码–解码架构193
9.1.3 编码器194
9.1.4 解码器195
9.1.5 模型训练197
9.2 注意力机制198
9.2.1 什么是注意力机制198
9.2.2 计算语义向量200
9.2.3 自注意力机制200
9.2.4 Transformer模型202
9.3 实例—基于注意力机制的机器翻译203
9.3.1 准备数据203
9.3.2 构建并训练模型207
9.3.3 使用模型进行翻译211
9.4 本章小结212
9.5 习题213
参考文献215



---------------------------8077118 - 自然语言处理中的贝叶斯分析(原书第2版)---------------------------


译者序
第2版前言
第1版前言
第1版致谢
第1章 基础知识 1
1.1 概率测度 1
1.2 随机变量 2
1.2.1 连续随机变量和离散随机变量 2
1.2.2 多元随机变量的联合分布 3
1.3 条件分布 4
1.3.1 贝叶斯法则 5
1.3.2 独立随机变量与条件独立随机变量 6
1.3.3 可交换的随机变量 6
1.4 随机变量的期望 7
1.5 模型 9
1.5.1 参数模型与非参数模型 9
1.5.2 模型推断 10
1.5.3 生成模型 11
1.5.4 模型中的独立性假定 13
1.5.5 有向图模型 13
1.6 从数据场景中学习 15
1.7 贝叶斯学派和频率学派的哲学(冰山一角) 17
1.8 本章小结 17
1.9 习题 18
第2章 绪论 19
2.1 贝叶斯统计与自然语言处理的结合点概述 19
2.2 第一个例子:隐狄利克雷分配模型 22
2.2.1 狄利克雷分布 26
2.2.2 推断 28
2.2.3 总结 29
2.3 第二个例子:贝叶斯文本回归 30
2.4 本章小结 31
2.5 习题 31
第3章 先验 33
3.1 共轭先验 33
3.1.1 共轭先验和归一化常数 36
3.1.2 共轭先验在隐变量模型中的应用 37
3.1.3 混合共轭先验 38
3.1.4 重新归一化共轭分布 39
3.1.5 是否共轭的讨论 39
3.1.6 总结 40
3.2 多项式分布和类别分布的先验 40
3.2.1 再谈狄利克雷分布 41
3.2.2 Logistic正态分布 44
3.2.3 讨论 48
3.2.4 总结 49
3.3 非信息先验 49
3.3.1 均匀不正常先验 50
3.3.2 Jeffreys先验 51
3.3.3 讨论 51
3.4 共轭指数模型 52
3.5 模型中的多参数抽取 53
3.6 结构先验 54
3.7 本章小结 55
3.8 习题 56
第4章 贝叶斯估计 57
4.1 隐变量学习:两种观点 58
4.2 贝叶斯点估计 58
4.2.1 最大后验估计 59
4.2.2 基于最大后验解的后验近似 64
4.2.3 决策-理论点估计 65
4.2.4 总结 66
4.3 经验贝叶斯 66
4.4 后验的渐近行为 68
4.5 本章小结 69
4.6 习题 69
第5章 采样算法 70
5.1 MCMC算法:概述 71
5.2 MCMC推断的自然语言处理模型结构 71
5.3 吉布斯采样 73
5.3.1 坍塌吉布斯采样 76
5.3.2 运算符视图 79
5.3.3 并行化的吉布斯采样器 80
5.3.4 总结 81
5.4 Metropolis-Hastings算法 82
5.5 切片采样 84
5.5.1 辅助变量采样 85
5.5.2 切片采样和辅助变量采样在自然语言处理中的应用 85
5.6 模拟退火 86
5.7 MCMC算法的收敛性 86
5.8 马尔可夫链:基本理论 88
5.9 MCMC领域外的采样算法 89
5.10 蒙特卡罗积分 91
5.11 讨论 93
5.11.1 分布的可计算性与采样 93
5.11.2 嵌套的MCMC采样 93
5.11.3 MCMC方法的运行时间 93
5.11.4 粒子滤波 93
5.12 本章小结 95
5.13 习题 95
第6章 变分推断 97
6.1 边缘对数似然的变分界 97
6.2 平均场近似 99
6.3 平均场变分推断算法 100
6.3.1 狄利克雷-多项式变分推断 101
6.3.2 与期望最大化算法的联系 104
6.4 基于变分推断的经验贝叶斯 106
6.5 讨论 106
6.5.1 推断算法的初始化 107
6.5.2 收敛性诊断 107
6.5.3 变分推断在解码中的应用 107
6.5.4 变分推断最小化KL散度 108
6.5.5 在线的变分推断 109
6.6 本章小结 109
6.7 习题 109
第7章 非参数先验 111
7.1 狄利克雷过程:三种视角 112
7.1.1 折棍子过程 112
7.1.2 中餐馆过程 114
7.2 狄利克雷过程混合模型 115
7.2.1 基于狄利克雷过程混合模型的推断 116
7.2.2 狄利克雷过程混合是混合模型的极限 118
7.3 层次狄利克雷过程 119
7.4 PitmanYor过程 120
7.4.1 Pitman-Yor过程用于语言建模 121
7.4.2 Pitman-Yor过程的幂律行为 122
7.5 讨论 123
7.5.1 高斯过程 124
7.5.2 印度自助餐过程 124
7.5.3 嵌套的中餐馆过程 125
7.5.4 距离依赖的中餐馆过程 125
7.5.5 序列记忆器 126
7.6 本章小结 126
7.7 习题 127
第8章 贝叶斯语法模型 128
8.1 贝叶斯隐马尔可夫模型 129
8.2 概率上下文无关语法 131
8.2.1 作为多项式分布集的PCFG 133
8.2.2 PCFG的基本推断算法 133
8.2.3 作为隐马尔可夫模型的PCFG 136
8.3 贝叶斯概率上下文无关语法 137
8.3.1 PCFG的先验 137
8.3.2 贝叶斯PCFG的蒙特卡罗推断 138
8.3.3 贝叶斯PCFG的变分推断 139
8.4 适配器语法 140
8.4.1 Pitman-Yor适配器语法 141
8.4.2 PYAG的折棍子视角 142
8.4.3 基于PYAG的推断 143
8.5 层次狄利克雷过程PCFG 144
8.6 依存语法 147
8.7 同步语法 148
8.8 多语言学习 149
8.8.1 词性标注 149
8.8.2 语法归纳 151
8.9 延伸阅读 152
8.10 本章小结 153
8.11 习题 153
第9章 表征学习与神经网络 155
9.1 神经网络与表征学习:为什么是现在 155
9.2 词嵌入 158
9.2.1 词嵌入的skip-gram模型 158
9.2.2 贝叶斯skip-gram词嵌入 160
9.2.3 讨论 161
9.3 神经网络 162
9.3.1 频率论估计和反向传播算法 164
9.3.2 神经网络权值的先验 166
9.4 神经网络在自然语言处理中的现代应用 168
9.4.1 循环神经网络和递归神经网络 168
9.4.2 梯度消失与梯度爆炸问题 169
9.4.3 神经编码器-解码器模型 172
9.4.4 卷积神经网络 175
9.5 调整神经网络 177
9.5.1 正则化 177
9.5.2 超参数调整 178
9.6 神经网络生成建模 180
9.6.1 变分自编码器 180
9.6.2 生成对抗网络 185
9.7 本章小结 186
9.8 习题 187
结束语 189
附录A 基本概念 191
附录B 概率分布清单 197
参考文献 203

推荐

车牌查询
桂ICP备20004708号-3