作者 |
查鲁·C. 阿加沃尔 列奥纳多·德·马尔希 劳拉·米切尔 |
丛书名 |
智能科学与技术丛书 |
出版社 |
机械工业出版社 |
ISBN |
9782108121732 |
简要 |
简介 |
内容简介书籍计算机书籍 ---------------------------8083085 - 神经网络与深度学习--------------------------- 本书涵盖了经典和现代的深度学习模型。章节分为三类:第1部分为神经网络的基础。许多传统的机器学习模型可以理解为神经网络的特殊情况。前两章的重点是理解传统机器学习和神经网络之间的关系。支持向量机、线性/逻辑回归、奇异值分解、矩阵分解和推荐系统都是神经网络的特例。本书将这些方法与特征工程方法如word2vec一起进行了研究。第2部分是神经网络的基本原理。训练和正则化的详细讨论在第3章和第4章提供。第5章和第6章介绍了径向基函数(RBF)网络和受限的玻尔兹曼机。第3部分是神经网络的高级主题:第7章和第8章讨论了循环神经网络和卷积神经网络。第9章和第10章介绍了几个高级主题,如深度强化学习、神经图像机、Kohonen自组织映射和生成对抗网络。这本书是为研究生、研究人员和实践者编写的。大量的练习和一个解决方案手册,以帮助在课堂教学。在可能的情况下,突出显示以应用程序为中心的视图,以便提供对每一类技术的实际用途的理解。 ---------------------------8081316 - 神经网络设计与实现--------------------------- 本书是一本神经网络实践进阶指南,适合对AI和深度学习感兴趣并且想进一步提高技能的读者阅读。 本书从机器学习基础、深度学习应用和高级机器学习这三个方面入手,结合算法理论、代码实现和应用场景,介绍了机器学习的新动向和新技术。本书分为三部分:第1部分网络神经入门,主要介绍了人工智能历史、机器学习概述和神经网络基础;第二部分,深度学习应用,主要是基于卷积神经网络图像处理、文本挖掘、循环神经网络、利用迁移学习重用神经网络;第三部分,高级应用领域,主要介绍对生成对抗网络、自动编码器、损失函数、深度信度网络、强化学习基本定义等。 |
目录 |
[套装书具体书目] 8081316 - 神经网络设计与实现 - 9787111683506 - 机械工业出版社 - 定价 89 8083085 - 神经网络与深度学习 - 9787111686859 - 机械工业出版社 - 定价 149 ---------------------------8083085 - 神经网络与深度学习--------------------------- 译者序 前言 致谢 作者简介 第1章神经网络概论111简介1 1.2神经网络的基本架构3 1.2.1单层计算网络:感知机3 1.2.2多层神经网络13 1.2.3多层网络即计算图15 1.3利用反向传播训练神经网络16 1.4神经网络训练中的实际问题19 1.4.1过拟合问题19 1.4.2梯度消失与梯度爆炸问题22 1.4.3收敛问题22 1.4.4局部最优和伪最优22 1.4.5计算上的挑战23 1.5复合函数的能力之谜23 1.5.1非线性激活函数的重要性25 1.5.2利用深度以减少参数26 1.5.3非常规网络架构27 1.6常见网络架构28 1.6.1浅层模型模拟基础机器学习方法28 1.6.2径向基函数网络29 1.6.3受限玻尔兹曼机29 1.6.4循环神经网络30 1.6.5卷积神经网络31 1.6.6层次特征工程与预训练模型32 1.7高级主题34 1.7.1强化学习34 1.7.2分离数据存储和计算34 1.7.3生成对抗网络35 1.8两个基准35 1.8.1MNIST手写数字数据库35 1.8.2ImageNet数据库36 1.9总结37 1.10参考资料说明37 1.101视频讲座38 1.102软件资源39 1.11练习39 第2章基于浅层神经网络的机器学习41 2.1简介41 2.2二分类模型的神经架构42 2.2.1复习感知机42 2.2.2最小二乘回归44 2.2.3逻辑回归47 2.2.4支持向量机49 2.3多分类模型的神经架构50 2.3.1多分类感知机51 2.3.2WestonWatkins支持向量机52 2.3.3多重逻辑回归(softmax分类器)53 2.3.4应用于多分类的分层softmax54 2.4反向传播可以用于特征选择和神经网络的可解释性54 2.5使用自编码器进行矩阵分解55 2.5.1自编码器的基本原则55 2.5.2非线性激活函数59 2.5.3深度自编码器60 2.5.4应用于离群点检测62 2.5.5当隐藏层比输入层维数高时63 2.5.6其他应用63 2.5.7推荐系统:行索引到行值的预测65 2.5.8讨论67 2.6word2vec:简单神经架构的应用67 2.6.1连续词袋的神经嵌入68 2.6.2skipgram模型的神经嵌入70 2.6.3word2vec(SGNS)是逻辑矩阵分解74 2.6.4原始skipgram模型是多项式矩阵分解76 2.7图嵌入的简单神经架构76 2.7.1处理任意数量的边78 2.7.2多项式模型78 2.7.3与DeepWalk和node2vec的联系78 2.8总结78 2.9参考资料说明79 2.10练习80 第3章深度神经网络的训练823.1简介82 3.2反向传播的详细讨论83 3.2.1计算图抽象中的反向传播83 3.2.2前来拯救的动态规划87 3.2.3使用激活后变量的反向传播88 3.2.4使用激活前变量的反向传播89 3.2.5不同激活函数的更新示例91 3.2.6以向量为中心的反向传播的解耦视图92 3.2.7多输出节点及隐藏节点下的损失函数94 3.2.8小批量随机梯度下降95 3.2.9用于解决共享权重的反向传播技巧96 3.2.10检查梯度计算的正确性97 3.3设置和初始化问题98 3.3.1调整超参数98 3.3.2特征预处理99 3.3.3初始化100 3.4梯度消失和梯度爆炸问题101 3.4.1对梯度比例影响的几何理解102 3.4.2部分解决:激活函数的选择103 3.4.3死亡神经元和“脑损伤”104 3.5梯度下降策略105 3.5.1学习率衰减105 3.5.2基于动量的学习106 3.5.3参数特异的学习率108 3.5.4悬崖和高阶不稳定性111 3.5.5梯度截断112 3.5.6二阶导数112 3.5.7Polyak平均118 3.5.8局部极小值和伪极小值119 3.6批归一化120 3.7加速与压缩的实用技巧123 3.7.1GPU加速123 3.7.2并行和分布式实现125 3.7.3模型压缩的算法技巧126 3.8总结128 3.9参考资料说明128 3.10练习130 第4章让深度学习器学会泛化132 4.1简介132 4.2偏差方差权衡135 4.3模型调优和评估中的泛化问题138 4.3.1用留出法和交叉验证法进行评估139 4.3.2大规模训练中的问题140 4.3.3如何检测需要收集更多的数据141 4.4基于惩罚的正则化141 4.4.1与注入噪声的联系142 4.4.2L1正则化143 4.4.3选择L1正则化还是L2正则化143 4.4.4对隐藏单元进行惩罚:学习稀疏表示144 4.5集成方法145 4.5.1装袋和下采样145 4.5.2参数模型选择和平均146 4.5.3随机连接删除146 4.5.4Dropout147 4.5.5数据扰动集成149 4.6早停149 4.7无监督预训练150 4.7.1无监督预训练的变体153 4.7.2如何进行监督预训练154 4.8继续学习与课程学习154 4.8.1继续学习155 4.8.2课程学习156 4.9共享参数156 4.10无监督应用中的正则化157 4.101基于值的惩罚:稀疏自编码器157 4.102噪声注入:去噪自编码器157 4.103基于梯度的惩罚:收缩自编码器158 4.104隐藏层概率结构:变分自编码器161 4.11总结166 4.12参考资料说明166 4.13练习168 第5章径向基函数网络169 5.1简介169 5.2RBF网络的训练171 5.2.1训练隐藏层171 5.2.2训练输出层172 5.2.3正交最小二乘算法173 5.2.4完全监督学习174 5.3RBF网络的变体和特例175 5.3.1感知机准则分类175 5.3.2铰链损失分类175 5.3.3RBF促进线性可分离性的示例176 5.3.4应用于插值177 5.4与核方法的关系177 5.4.1RBF网络的特例:核回归177 5.4.2RBF网络的特例:核SVM178 5.4.3观察179 5.5总结179 5.6参考资料说明179 5.7练习180 第6章受限玻尔兹曼机181 6.1简介181 6.2Hopfield 网络 182 6.2.1训练网络的最优状态配置183 6.2.2训练Hopfield网络184 6.2.3推荐器的构建及其局限性185 6.2.4提高Hopfield网络的表达能力186 6.3玻尔兹曼机187 6.3.1玻尔兹曼机如何生成数据188 6.3.2学习玻尔兹曼机的权重188 6.4RBM的原理189 6.4.1训练RBM191 6.4.2对比发散算法192 6.4.3实际问题和即兴性193 6.5RBM的应用193 6.5.1降维和数据重构194 6.5.2使用RBM进行协同过滤196 6.5.3使用RBM进行分类198 6.5.4使用RBM建立主题模型201 6.5.5使用RBM进行多模态数据的机器学习202 6.6在二元数据类型之外使用RBM203 6.7堆叠式RBM204 6.7.1无监督学习206 6.7.2监督学习206 6.7.3深度玻尔兹曼机和深度信念网络206 6.8总结207 6.9参考资料说明207 6.10练习208 第7章循环神经网络210 7.1简介210 7.2循环神经网络的架构212 7.2.1RNN语言建模实例214 7.2.2时间反向传播216 7.2.3双向循环神经网络218 7.2.4多层循环神经网络220 7.3训练循环神经网络的挑战221 7.4回声状态网络224 7.5长短期记忆网络226 7.6门控循环单元228 7.7循环神经网络的应用229 7.7.1应用于自动图像描述230 7.7.2序列到序列的学习和机器翻译231 7.7.3应用于句子级别分类234 7.7.4利用语言特征进行词级别分类235 7.7.5时间序列预测236 7.7.6时序推荐系统237 7.7.7蛋白质二级结构预测239 7.7.8端到端语音识别239 7.7.9手写识别239 7.8总结240 7.9参考资料说明240 7.10练习241 第8章卷积神经网络243 8.1简介243 8.1.1历史观点和生物启发243 8.1.2卷积神经网络的广义发现244 8.2卷积神经网络的基本结构245 8.2.1填充248 8.2.2步长249 8.2.3典型设置250 8.2.4ReLU层250 8.2.5池化251 8.2.6全连接层252 8.2.7层与层之间的交织253 8.2.8局部响应归一化254 8.2.9层次特征工程255 8.3训练一个卷积网络256 8.3.1通过卷积反向传播256 8.3.2通过反转/转置滤波器的卷积进行反向传播257 8.3.3通过矩阵乘法进行卷积/反向传播258 8.3.4数据增强259 8.4卷积架构的案例研究260 8.4.1AlexNet260 8.4.2ZFNet262 8.4.3VGG263 8.4.4GoogLeNet266 8.4.5ResNet267 8.4.6深度的影响270 8.4.7预训练模型270 8.5可视化与无监督学习271 8.5.1可视化训练网络的特征272 8.5.2卷积自编码器276 8.6卷积网络的应用280 8.6.1基于内容的图像检索280 8.6.2对象定位280 8.6.3对象检测281 8.6.4自然语言和序列学习282 8.6.5视频分类283 8.7总结283 8.8参考资料说明283 8.9练习286 第9章深度强化学习287 9.1简介287 9.2无状态算法:多臂老虎机288 9.2.1朴素算法289 9.2.2ε贪婪算法289 9.2.3上界方法289 9.3强化学习的基本框架290 9.3.1强化学习中的挑战291 9.3.2用于井字棋的简单强化学习292 9.3.3深度学习的作用和稻草人算法292 9.4用于学习价值函数的自举算法294 9.4.1深度学习模型:函数逼近器295 9.4.2实例:用于Atari设置的神经网络297 9.4.3同步策略与异步策略方法:SARSA298 9.4.4模型状态与状态动作对299 9.5策略梯度方法301 9.5.1有限差分方法302 9.5.2似然比方法302 9.5.3策略梯度与监督学习的结合304 9.5.4行动者评价者方法304 9.5.5连续动作空间305 9.5.6策略梯度的优缺点306 9.6蒙特卡洛树搜索306 9.7案例研究308 9.7.1AlphaGo:冠军级别的围棋选手308 9.7.2自主学习机器人311 9.7.3建立会话系统:面向聊天机器人的深度学习314 9.7.4自动驾驶汽车316 9.7.5利用强化学习推断神经架构317 9.8与安全相关的实际挑战318 9.9总结319 9.10参考资料说明319 9.11练习321 第10章深度学习的前沿主题322 10.1简介322 10.2注意力机制323 10.2.1视觉注意力循环模型324 10.2.2注意力机制用于机器翻译327 10.3具有外部存储的神经网络329 10.3.1一个假想的视频游戏:基于样本的排序330 10.3.2神经图灵机331 10.3.3可微神经计算机:简要概述336 10.4生成对抗网络337 10.4.1训练生成对抗网络338 10.4.2与变分自编码器比较340 10.4.3用GAN生成图像数据340 10.4.4条件生成对抗网络342 10.5竞争学习345 10.5.1矢量量化346 10.5.2Kohonen自组织映射346 10.6神经网络的局限性349 10.6.1一个理想的目标:单样本学习349 10.6.2一个理想的目标:节能学习350 10.7总结351 10.8参考资料说明352 10.9练习353 参考文献354 术语表388 ---------------------------8081316 - 神经网络设计与实现--------------------------- 译者序 前言 第一部分 神经网络入门 第1章 有监督学习入门2 1.1 人工智能的历史2 1.2 机器学习概述4 1.2.1 有监督学习4 1.2.2 无监督学习4 1.2.3 半监督学习5 1.2.4 强化学习5 1.3 配置环境6 1.3.1 了解虚拟环境7 1.3.2 Anaconda8 1.3.3 Docker9 1.4 Python有监督学习实践9 1.5 特征工程11 1.6 有监督学习算法14 1.6.1 指标15 1.6.2 模型评估17 1.7 总结19 第2章 神经网络基础20 2.1 感知器20 2.2 Keras27 2.3 前馈神经网络29 2.3.1 反向传播介绍31 2.3.2 激活函数33 2.3.3 Keras实现36 2.4 从头开始使用Python编写FFNN40 2.4.1 FFNN的Keras实现43 2.4.2 TensorBoard45 2.4.3 XOR问题中的TensorBoard45 2.5 总结48 第二部分 深度学习应用 第3章 基于卷积神经网络的图像处理50 3.1 理解卷积神经网络50 3.2 卷积层52 3.2.1 池化层55 3.2.2 丢弃层57 3.2.3 归一化层57 3.2.4 输出层57 3.3 Keras中的卷积神经网络58 3.3.1 加载数据58 3.3.2 创建模型60 3.3.3 网络配置60 3.4 Keras表情识别63 3.5 优化网络68 3.6 总结70 第4章 利用文本嵌入71 4.1 面向NLP的机器学习71 4.2 理解词嵌入73 4.2.1 词嵌入的应用73 4.2.2 Word2vec74 4.3 GloVe80 4.3.1 全局矩阵分解80 4.3.2 使用GloVe模型82 4.3.3 基于GloVe的文本分类85 4.4 总结87 第5章 循环神经网络88 5.1 理解循环神经网络88 5.1.1 循环神经网络原理90 5.1.2 循环神经网络类型91 5.1.3 损失函数94 5.2 长短期记忆95 5.2.1 LSTM架构95 5.2.2 Keras长短期记忆实现98 5.3 PyTorch基础知识102 5.4 总结106 第6章 利用迁移学习重用神经网络107 6.1 迁移学习理论107 6.1.1 多任务学习介绍108 6.1.2 重用其他网络作为特征提取器108 6.2 实现多任务学习108 6.3 特征提取110 6.4 在PyTorch中实现迁移学习110 6.5 总结116 第三部分 高级应用领域 第7章 使用生成算法118 7.1 判别算法与生成算法118 7.2 理解GAN120 7.2.1 训练GAN121 7.2.2 GAN面临的挑战123 7.3 GAN的发展变化和时间线124 7.3.1 条件GAN125 7.3.2 DCGAN125 7.3.3 Pix2Pix GAN131 7.3.4 StackGAN132 7.3.5 CycleGAN133 7.3.6 ProGAN135 7.3.7 StarGAN136 7.3.8 BigGAN138 7.3.9 StyleGAN139 7.3.10 Deepfake142 7.3.11 RadialGAN143 7.4 总结144 7.5 延伸阅读144 第8章 实现自编码器146 8.1 自编码器概述146 8.2 自编码器的应用147 8.3 瓶颈和损失函数147 8.4 自编码器的标准类型148 8.4.1 欠完备自编码器148 8.4.2 多层自编码器151 8.4.3 卷积自编码器152 8.4.4 稀疏自编码器155 8.4.5 去噪自编码器156 8.4.6 收缩自编码器157 8.5 变分自编码器157 8.6 训练变分自编码器159 8.7 总结164 8.8 延伸阅读164 第9章 DBN165 9.1 DBN概述165 9.1.1 贝叶斯置信网络166 9.1.2 受限玻尔兹曼机167 9.2 DBN架构176 9.3 训练DBN177 9.4 微调179 9.5 数据集和库179 9.5.1 示例—有监督的DBN分类180 9.5.2 示例—有监督的DBN回归181 9.5.3 示例—无监督的DBN分类182 9.6 总结183 9.7 延伸阅读183 第10章 强化学习184 10.1 基本定义184 10.2 Q-learning介绍187 10.2.1 学习目标187 10.2.2 策略优化188 10.2.3 Q-learning方法188 10.3 使用OpenAI Gym188 10.4 冰湖问题191 10.5 总结199 第11章 下一步是什么200 11.1 本书总结200 11.2 机器学习的未来201 11.3 通用人工智能202 11.3.1 AI伦理问题203 11.3.2 可解释性203 11.3.3 自动化204 11.3.4 AI安全性204 11.3.5 问责制205 11.4 结语205 |