小苏子
小苏子PDF在线图书

神经网络与机器学习(原书第3版) 内容简介

神经网络与机器学习(原书第3版) 内容简介

神经网络与机器学习(原书第3版) 目录

神经网络与机器学习(原书第3版) 精彩文摘

神经网络是计算智能和机器学习的重要分支,在诸多领域都取得了很大的成功。在众多神经网络著作中,影响较为广泛的是Simon Haykin的《神经网络原理》(第3版更名为《神经网络与机器学习》)。在本书中,作者结合近年来神经网络和机器学习的新进展,从理论和实际应用出发,全面、系统地介绍了神经网络的基本模型、方法和技术,并将神经网络和机器学习有机地结合在一起。《神经网络与机器学习》不但注重对数学分析方法和理论的探讨,而且也非常关注神经网络在模式识别、信号处理以及控制系统等实际工程问题的应用。本书的可读性非常强,作者举重若轻地对神经网络的基本模型和主要学习理论进行了深入探讨和分析,通过大量的试验报告、例题和习题来帮助读者更好地学习神经网络。本版在前一版的基础上进行了广泛修订,提供了神经网络和机器学习这两个越来越重要的学科的新分析。本书特色:1. 基于随机梯度下降的在线学习算法;小规模和大规模学习问题。2. 核方法,包括支持向量机和表达定理。3. 信息论学习模型,包括连接、独立分量分析(ICA)、一致独立分量分析和信息瓶颈。4. 随机动态规划,包括逼近和神经动态规划。5. 逐次状态估计算法,包括卡尔曼和粒子滤波器。6. 利用逐次状态估计算法训练递归神经网络。7. 富有洞察力的面向计算机的试验。出版者的话译者序前言缩写和符号术语第0章 导言0.1 什么是神经网络0.2 人类大脑0.3 神经元模型0.4 被看作有向图的神经网络0.5 反馈0.6 网络结构0.7 知识表示0.8 学习过程0.9 学习任务0.10 结束语注释和参考文献第1章 Rosenblatt感知器1.1 引言1.2 感知器1.3 感知器收敛定理1.4 高斯环境下感知器与贝叶斯分类器的关系1.5 计算机实验:模式分类1.6 批量感知器算法1.7 小结和讨论注释和参考文献习题第2章 通过回归建立模型2.1 引言2.2 线性回归模型:初步考虑2.3 参数向量的最大后验估计2.4 正则最小二乘估计和MAP估计之间的关系2.5 计算机实验:模式分类2.6 最小描述长度原则2.7 固定样本大小考虑2.8 工具变量方法2.9 小结和讨论注释和参考文献习题55第3章 最小均方算法3.1 引言3.2 LMS算法的滤波结构3.3 无约束最优化:回顾3.4 维纳滤波器3.5 最小均方算法3.6 用马尔可夫模型来描画LMS算法和维纳滤波器的偏差3.7 朗之万方程:布朗运动的特点3.8 Kushner直接平均法3.9 小学习率参数下统计LMS学习理论3.10 计算机实验Ⅰ:线性预测3.11 计算机实验Ⅱ:模式分类3.12 LMS算法的优点和局限3.13 学习率退火方案3.14 小结和讨论注释和参考文献习题第4章 多层感知器4.1 引言4.2 一些预备知识4.3 批量学习和在线学习4.4 反向传播算法4.5 异或问题4.6 改善反向传播算法性能的试探法4.7 计算机实验:模式分类4.8 反向传播和微分4.9 Hessian矩阵及其在在线学习中的规则4.10 学习率的最优退火和自适应控制4.11 泛化4.12 函数逼近4.13 交叉验证4.14 复杂度正则化和网络修剪4.15 反向传播学习的优点和局限4.16 作为最优化问题看待的监督学习4.17 卷积网络4.18 非线性滤波4.19 小规模和大规模学习问题4.20 小结和讨论注释和参考文献习题第5章 核方法和径向基函数网络5.1 引言5.2 模式可分性的Cover定理5.3 插值问题5.4 径向基函数网络5.5 K-均值聚类5.6 权向量的递归最小二乘估计5.7 RBF网络的混合学习过程5.8 计算机实验:模式分类5.9 高斯隐藏单元的解释5.10 核回归及其与RBF网络的关系5.11 小结和讨论注释和参考文献习题第6章 支持向量机第7章 正则化理论第8章 主分量分析第9章 自组织映射第10章 信息论学习模型第11章 植根于统计力学的随机方法第12章 动态规划第13章 神经动力学第14章 动态系统状态估计的贝叶斯滤波第15章 动态驱动递归网络参考文献0.1什么是神经网络自从认识到人脑计算与传统的数字计算机相比是完全不同的方式开始,关于人工神经网络(一般称为“神经网络”(neural network))的研究工作就开始了。人脑是一个高度复杂的、非线性的和并行的计算机器(信息处理系统)。人脑能够组织它的组成成分,即神经元,以比今天已有的最快的计算机还要快许多倍的速度进行特定的计算(如模式识别、感知和发动机控制)。例如,考虑人类视觉,这是一个信息处理任务。视觉系统的功能是为我们提供一个关于周围环境的表示,并且更重要的是提供我们与环境交互(interact)所需的信息。具体来说,完成一个感知识别任务(例如识别一张被嵌入陌生场景的熟悉的脸)人脑大概需要100~200毫秒,而一台高效的计算机却要花费比人脑多很多的时间才能完成一个相对简单的任务。再举一个例子:考虑一只蝙蝠的声呐。声呐就是一个活动回声定位系统。除了提供目标(例如飞行的昆虫)有多远的信息外,蝙蝠的声呐可以搜集目标的相对速度、目标大小、目标不同特征的大小以及它的方位角和仰角的信息。所有这些信息都从目标回声中提取,而所有需要的复杂神经计算只在李子般大小的脑中完成。事实上,一只回声定位的蝙蝠可以灵巧地以很高的成功率追逐和捕捉目标,这一点足以使雷达或声呐工程师们自叹弗如。那么,人脑或蝙蝠的脑是如何做到这一点的呢?脑在出生的时候就有很复杂的构造和具有通过我们通常称为的“经验”来建立它自己规则的能力。确实,经验是经过时间积累的,人脑在出生后头两年内发生了非常大的进化(即硬接线),但是进化将超越这个阶段并继续进行。一个“进化中”的神经系统是与可塑的大脑同义的。可塑性(plasticity)允许进化中的神经系统适应(adapt)其周边环境。可塑性似乎是人类大脑中作为信息处理单元的神经元功能的关键,同样,它在人工神经元组成的神经网络中亦是如此。最普通形式的神经网络,就是对人脑完成特定任务或感兴趣功能所采用的方法进行建模的机器。网络一般用电子元件实现或者用软件在数字计算机上模拟。在本书中,我们集中介绍一类重要的神经网络,这类网络通过学习过程来实现有用的计算。为了获得良好性能,神经网络使用一个很庞大的简单计算单元间的相互连接,这些简单计算单元称为“神经元”或者“处理单元”。据此我们给出将神经网络看作一种自适应机器的定义。

赞(0)
未经允许不得转载:小苏子图书 » 神经网络与机器学习(原书第3版) 内容简介