一类时滞神经网络LMI稳定性判据研究

一类时滞神经网络LMI稳定性判据研究

论文摘要

神经网络的研究可以追溯到19世纪末20世纪初,它是在心理学、神经生理学和物理学等基础之上发展起来的一门新兴交叉学科。它的诞生对电子科学、信息科学、数理科学等相关领域产生了巨大影响,促使了以神经计算机为基础的高技术群的诞生和发展。经过半个多世纪的曲折发展历程,它已成为近年来发展速度最为迅速的一个国际前沿研究领域,并演绎出各种不同形式的模型和研究分支。目前,神经网络已广泛应用于图像处理、自动控制、模式识别、信号处理、经济、化工以及电力系统等诸多领域。众所周知,在神经网络的实际应用过程中,大多数情况要求所建神经网络模型必须是稳定的,即神经网络模型所对应状态方程的所有解都收敛到平衡点。然而,神经网络模型在具体的硬件实现过程中,稳定性往往会受到其它因素的干扰。在众多破坏网络稳定性的因素之中,网络时延是其中的主要因素之一。由于信号的有限传输速度,使得网络时延不可避免,它已成为网络的一个基本特征。时延的存在,对网络动力学性质所产生的影响是巨大的,可以造成网络出现不稳定,周期振荡甚至混沌等现象。因此,在神经网络数学建模时,时滞应该体现在所建模型之中。时滞神经网络模型稳定性研究是网络硬件实现的需要,也是网络实际应用的需要。基于时滞神经网络模型在实际应用中的重要性,本论文主要针对一类特殊时变时滞神经网络模型进行了研究,深入分析了该模型的稳定性问题,取得了如下研究成果:(1)利用一重积分Jensen不等式、二重积分形式Jensen不等式以及倒凸不等式等工具,运用线性矩阵不等式(LMI)技术、不等式技巧,通过建立新的广义Lyapunov函数,建立了一些新的神经网络稳定性判据。同时考虑到上述不等式的局限性,通过推广一些现有积分不等式,进一步建立了保守性较弱的稳定性改进判据。(2)考虑到神经网络模型激活函数扇形有界约束条件的特点,利用凸锥理论,通过将激活函数的非线性形式改写成参数不定线性表达,结合Finsler引理、时滞分解技术以及分段凸Lyapunov函数构造技术,进一步建立了一系列新的稳定性判据。(3)列举了多个数值仿真算例来验证新判据的可行性和优越性。最后对全文的主要贡献作了总结,分析了本文所建稳定性判据的优点和缺陷,最后在综合分析基础之上,进一步指出了将来的工作方向和研究重点。

论文目录

  • 摘要
  • ABSTRACT
  • 第一章 绪论
  • 1.1 神经网络稳定性研究意义及现状
  • 1.1.1 研究意义
  • 1.1.2 研究现状
  • 1.2 本文主要工作
  • 1.3 本论文的结构安排
  • 第二章 基于积分不等式的神经网络稳定性LMI判据
  • 2.1 引言
  • 2.2 预备知识
  • 2.3 主要结论
  • 2.4 数值仿真算例
  • 2.5 本章小结
  • 第三章 基于激活函数凸锥表示的稳定性LMI改进判据
  • 3.1 引言
  • 3.2 预备知识
  • 3.3 主要结论
  • 3.3.1 基于Fishier引理的稳定判据
  • 3.3.2 数值仿真算例
  • 3.3.3 基于分段凸与Finsler引理的稳定性判据
  • 3.3.4 数值仿真算例
  • 3.4 本章小结
  • 第四章 结论
  • 4.1 本文的主要贡献
  • 4.2 下一步工作的展望
  • 致谢
  • 参考文献
  • 攻博期间取得的研究成果
  • 相关论文文献

    标签:;  ;  ;  ;  ;  

    一类时滞神经网络LMI稳定性判据研究
    下载Doc文档

    猜你喜欢