首页 理论教育神经网络分类:方法优化

神经网络分类:方法优化

【摘要】:1943年,心理学家Mcculloch和数学家Pitts合作提出形式神经元的数学模型,成为人工神经网络研究的开端。神经网络的原始模型是1958年提出的感知器模型,只有一个输出节点,它相当于单个神经元,主要用于模式分类。几乎所有神经网络学习算法都可以看做Hebb学习规则的变形。图2.12多层前馈网络结构示意图多层前馈网络的适用范围大大超过原始网络,但其主要困难是中间的隐层不直接与外界连接,无法直接计算其误差。为解决这一问题,提出了反向传播算法。

1943年,心理学家Mcculloch和数学家Pitts合作提出形式神经元的数学模型,成为人工神经网络研究的开端。1949年,心理学家Hebb提出神经元之间突触联系强度可变的假设,并据此提出神经元的学习准则,为神经网络的学习算法奠定了基础。1982年,Hopfield提出了神经网络的一种数学模型,引入了能量函数的概念,研究了网络的动力学性质,又设计出用电子线路实现这一网络的方案,同时开拓了神经网络用于联想记忆和优化计算的新途径,大大促进了神经网络的研究。

神经网络的原始模型是1958年提出的感知器模型,只有一个输出节点,它相当于单个神经元,主要用于模式分类。感知器的功能是有限的,它无法解决线性不可分的两类样本的分类问题。之后,人们又提出了多层前馈网络及反向传播训练算法,简称BP网络或BP算法。

多层前馈网络结构如图2.12所示(来源于文献[93]中图11.3)。构成前馈网络的各神经元接受前一级输入,并输出到下一级、无反馈,形成一有向无环图。除输入和输出层,中间的层称为隐层。图的节点分为两类,即输入节点与计算单元。几乎所有神经网络学习算法都可以看做Hebb学习规则的变形。Hebb学习规则的基本思想是:如果神经元Ui接收来自另一神经元Uj的输出,则当这两个神经元同时兴奋时,则从Uj到Ui的权就得到加强。

图2.12 多层前馈网络结构示意图

多层前馈网络的适用范围大大超过原始网络,但其主要困难是中间的隐层不直接与外界连接,无法直接计算其误差。为解决这一问题,提出了反向传播算法。其主要思想是从后向前(反向)逐层传播输出层的误差,以间接算出隐层误差。算法分为两个阶段:第一阶段(正向过程)输入信息从输入层经隐层逐层计算各单元的输出值;第二阶段(反向传播过程)输出误差逐层向前算出隐层各单元的误差,并用此误差修正前层权值。反向传播算法解决了隐层权值修正问题,但它是用梯度法求非线性函数极值,因而有可能陷入局部极小点,不能保证收敛到全局极小点[93]

利用神经网络进行分类时,如果训练样本是M维模式向量,它们依次送到神经网络的输入层,用来训练神经网络的参数。输入层各节点以一定权值送到第一隐层各节点,第一隐层各节点输出再以一定权值送到第二隐层各节点。最后,第二隐层节点分别送到输出层,得到运算结果。

观察第一隐层诸神经元,它们有共同的输入和不同的输出。每个这样的神经元都是感知器,它决定了多维空间的不同超平面。每个超平面将M维空间分割成正负两个半空间。给出的超平面通过以后的连接和组合构成一个正确的分段线性划分,这个分段线性划分能拟合对这些类模式正确分类的超曲面。这就把模式识别中的分段线性划分与前馈神经网络联系了起来[96]