Python深度学习 内容简介

Python深度学习 内容简介

Python深度学习 目录

Python深度学习 精彩文摘

适读人群 :大数据及机器学习领域对深度学习感兴趣的各类读者。《Python深度学习》由Keras之父、现任Google人工智能研究员的Franc.ois Chollet执笔,详尽展示了用Python、Keras、TensorFlow进行深度学习的探索实践,涉及计算机视觉、自然语言处理、生成式模型等应用。在学习完本书后,读者将了解深度学习、机器学习和神经网络的关键概念,具备搭建自己的深度学习环境、建立图像识别模型、生成图像和文字等能力,学会解决现实世界中的深度学习问题。除此之外,本书还深刻剖析了当前的”人工智能热”,从理性的视角展望了深度学习在未来的可能性。● 30多个代码示例,带你全面掌握如何用深度学习解决实际问题● Keras框架速成的明智之选● 夯实深度学习基础,在实践中培养对深度神经网络的良好直觉● 无须机器学习经验和高等数学背景本书由Keras之父、现任Google人工智能研究员的弗朗索瓦?肖莱(Franc.ois Chollet)执笔,详尽介绍了用Python和Keras进行深度学习的探索实践,包括计算机视觉、自然语言处理、产生式模型等应用。书中包含30多个代码示例,步骤讲解详细透彻。由于本书立足于人工智能的可达性和大众化,读者无须具备机器学习相关背景知识即可展开阅读。在学习完本书后,读者将具备搭建自己的深度学习环境、建立图像识别模型、生成图像和文字等能力。第一部分 深度学习基础第1章 什么是深度学习 21.1 人工智能、机器学习与深度学习 21.1.1 人工智能 31.1.2 机器学习 31.1.3 从数据中学习表示 41.1.4 深度学习之“深度” 61.1.5 用三张图理解深度学习的工作原理 71.1.6 深度学习已经取得的进展 91.1.7 不要相信短期炒作 91.1.8 人工智能的未来 101.2 深度学习之前:机器学习简史 111.2.1 概率建模 111.2.2 早期神经网络 111.2.3 核方法 121.2.4 决策树、随机森林与梯度提升机 131.2.5 回到神经网络 141.2.6 深度学习有何不同 141.2.7 机器学习现状 151.3 为什么是深度学习,为什么是现在 151.3.1 硬件 161.3.2 数据 171.3.3 算法 171.3.4 新的投资热潮 171.3.5 深度学习的大众化 181.3.6 这种趋势会持续吗 18第 2章 神经网络的数学基础 202.1 初识神经网络 202.2 神经网络的数据表示 232.2.1 标量(0D张量) 232.2.2 向量(1D张量) 242.2.3 矩阵(2D张量) 242.2.4 3D张量与更高维张量 242.2.5 关键属性 252.2.6 在Numpy中操作张量 262.2.7 数据批量的概念 272.2.8 现实世界中的数据张量 272.2.9 向量数据 272.2.10 时间序列数据或序列数据 282.2.11 图像数据 282.2.12 视频数据 292.3 神经网络的“齿轮”:张量运算 292.3.1 逐元素运算 302.3.2 广播 312.3.3 张量点积 322.3.4 张量变形 342.3.5 张量运算的几何解释 342.3.6 深度学习的几何解释 352.4 神经网络的“引擎”:基于梯度的优化 362.4.1 什么是导数 372.4.2 张量运算的导数:梯度 382.4.3 随机梯度下降 382.4.4 链式求导:反向传播算法 412.5 回顾第 一个例子 41本章小结 42第3章 神经网络入门 433.1 神经网络剖析 433.1.1 层:深度学习的基础组件 443.1.2 模型:层构成的网络 453.1.3 损失函数与优化器:配置学习过程的关键 453.2 Keras简介 463.2.1 Keras、TensorFlow、Theano 和CNTK 473.2.2 使用Keras 开发:概述 483.3 建立深度学习工作站 493.3.1 Jupyter笔记本:运行深度学习实验的首选方法 493.3.2 运行Keras:两种选择 503.3.3 在云端运行深度学习任务:优点和缺点 503.3.4 深度学习的最佳GPU 503.4 电影评论分类:二分类问题 513.4.1 IMDB 数据集 513.4.2 准备数据 523.4.3 构建网络 523.4.4 验证你的方法 563.4.5 使用训练好的网络在新数据上生成预测结果 593.4.6 进一步的实验 593.4.7 小结 593.5 新闻分类:多分类问题 593.5.1 路透社数据集 603.5.2 准备数据 613.5.3 构建网络 613.5.4 验证你的方法 623.5.5 在新数据上生成预测结果 653.5.6 处理标签和损失的另一种方法 653.5.7 中间层维度足够大的重要性 653.5.8 进一步的实验 663.5.9 小结 663.6 预测房价:回归问题 663.6.1 波士顿房价数据集 673.6.2 准备数据 673.6.3 构建网络 683.6.4 利用K折验证来验证你的方法 683.6.5 小结 72本章小结 73第4章 机器学习基础 744.1 机器学习的四个分支 744.1.1 监督学习 744.1.2 无监督学习 754.1.3 自监督学习 754.1.4 强化学习 754.2 评估机器学习模型 764.2.1 训练集、验证集和测试集 774.2.2 评估模型的注意事项 804.3 数据预处理、特征工程和特征学习 804.3.1 神经网络的数据预处理 804.3.2 特征工程 814.4 过拟合与欠拟合 834.4.1 减小网络大小 834.4.2 添加权重正则化 854.4.3 添加dropout正则化 874.5 机器学习的通用工作流程 894.5.1 定义问题,收集数据集 894.5.2 选择衡量成功的指标 894.5.3 确定评估方法 904.5.4 准备数据 904.5.5 开发比基准更好的模型 904.5.6 扩大模型规模:开发过拟合的模型 914.5.7 模型正则化与调节超参数 92本章小结 92第二部分 深度学习实践第5章 深度学习用于计算机视觉 945.1 卷积神经网络简介 945.1.1 卷积运算 965.1.2 最大池化运算 1015.2 在小型数据集上从头开始训练一个卷积神经网络 1025.2.1 深度学习与小数据问题的相关性 1035.2.2 下载数据 1035.2.3 构建网络 1065.2.4 数据预处理 1075.2.5 使用数据增强 1115.3 使用预训练的卷积神经网络 1155.3.1 特征提取 1165.3.2 微调模型 1245.3.3 小结 1305.4 卷积神经网络的可视化 1305.4.1 可视化中间激活 1315.4.2 可视化卷积神经网络的过滤器 1365.4.3 可视化类激活的热力图 142本章小结 146第6章 深度学习用于文本和序列 1476.1 处理文本数据 1476.1.1 单词和字符的one-hot编码 1496.1.2 使用词嵌入 1516.1.3 整合在一起:从原始文本到词嵌入 1556.1.4 小结 1626.2 理解循环神经网络 1626.2.1 Keras中的循环层 1646.2.2 理解LSTM层和GRU层 1686.2.3 Keras中一个LSTM的具体例子 1706.2.4 小结 1726.3 循环神经网络的高级用法 1726.3.1 温度预测问题 1726.3.2 准备数据 1756.3.3 一种基于常识的、非机器学习的基准方法 1776.3.4 一种基本的机器学习方法 1786.3.5 第 一个循环网络基准 1806.3.6 使用循环dropout来降低过拟合 1816.3.7 循环层堆叠 1826.3.8 使用双向RNN 1846.3.9 更多尝试 1876.3.10 小结 1876.4 用卷积神经网络处理序列 1886.4.1 理解序列数据的一维卷积 1886.4.2 序列数据的一维池化 1896.4.3 实现一维卷积神经网络 1896.4.4 结合CNN和RNN来处理长序列 1916.4.5 小结 195本章总结 195第7章 高级的深度学习最佳实践 1967.1 不用Sequential模型的解决方案:Keras 函数式API 1967.1.1 函数式API简介 1997.1.2 多输入模型 2007.1.3 多输出模型 2027.1.4 层组成的有向无环图 2047.1.5 共享层权重 2087.1.6 将模型作为层 2087.1.7 小结 2097.2 使用Keras回调函数和TensorBoard来检查并监控深度学习模型 2107.2.1 训练过程中将回调函数作用于模型 2107.2.2 TensorBoard简介:TensorFlow的可视化框架 2127.2.3 小结 2197.3 让模型性能发挥到极致 2197.3.1 高级架构模式 2197.3.2 超参数优化 2227.3.3 模型集成 2237.3.4 小结 224本章总结 225第8章 生成式深度学习 2268.1 使用LSTM生成文本 2278.1.1 生成式循环网络简史 2278.1.2 如何生成序列数据 2288.1.3 采样策略的重要性 2298.1.4 实现字符级的LSTM文本生成 2308.1.5 小结 2348.2 DeepDream 2358.2.1 用Keras实现DeepDream 2368.2.2 小结 2418.3 神经风格迁移 2418.3.1 内容损失 2428.3.2 风格损失 2438.3.3 用Keras实现神经风格迁移 2438.3.4 小结 2498.4 用变分自编码器生成图像 2498.4.1 从图像的潜在空间中采样 2498.4.2 图像编辑的概念向量 2508.4.3 变分自编码器 2518.4.4 小结 2568.5 生成式对抗网络简介 2578.5.1 GAN 的简要实现流程 2588.5.2 大量技巧 2598.5.3 生成器 2608.5.4 判别器 2618.5.5 对抗网络 2618.5.6 如何训练DCGAN 2628.5.7 小结 264本章总结 264第9章 总结 2659.1 重点内容回顾 2659.1.1 人工智能的各种方法 2659.1.2 深度学习在机器学习领域中的特殊之处 2669.1.3 如何看待深度学习 2669.1.4 关键的推动技术 2679.1.5 机器学习的通用工作流程 2689.1.6 关键网络架构 2689.1.7 可能性空间 2729.2 深度学习的局限性 2739.2.1 将机器学习模型拟人化的风险 2739.2.2 局部泛化与极端泛化 2759.2.3 小结 2769.3 深度学习的未来 2779.3.1 模型即程序 2779.3.2 超越反向传播和可微层 2789.3.3 自动化机器学习 2799.3.4 终身学习与模块化子程序复用 2799.3.5 长期愿景 2819.4 了解一个快速发展领域的最新进展 2819.4.1 使用Kaggle练习解决现实世界的问题 2819.4.2 在arXiv阅读最新进展 2829.4.3 探索Keras生态系统 2829.5 结束语 282附录A 在Ubuntu上安装Keras及其依赖 283附录B 在EC2 GPU实例上运行Jupyter笔记本 2871.1.1 人工智能人工智能诞生于 20 世纪 50 年代,当时计算机科学这一新兴领域的少数先驱开始提出疑问:计算机是否能够“思考”?我们今天仍在探索这一问题的答案。人工智能的简洁定义如下:努力将通常由人类完成的智力任务自动化。因此,人工智能是一个综合性的领域,不仅包括机器学习与深度学习,还包括更多不涉及学习的方法。例如,早期的国际象棋程序仅包含程序员精心编写的硬编码规则,并不属于机器学习。在相当长的时间内,许多专家相信,只要程序员精心编写足够多的明确规则来处理知识,就可以实现与人类水平相当的人工智能。这一方法被称为符号主义人工智能(symbolic AI),从 20 世纪 50 年代到 80 年代末是人工智能的主流范式。在 20 世纪 80 年代的专家系统(expert system)热潮中,这一方法的热度达到了顶峰。虽然符号主义人工智能适合用来解决定义明确的逻辑问题,比如下国际象棋,但它难以给出明确的规则来解决更加复杂、模糊的问题,比如图像分类、语音识别和语言翻译。于是出现了一种新的方法来替代符号主义人工智能,这就是机器学习(machine learning)。

类似文章

发表评论

您的电子邮箱地址不会被公开。