|
文献综述: |
|
【摘要】高斯误差函数(Gauss Error Function: GEF)属于非初等函数(nonelementary function),其在数学分析、理学研究和工程实践中有广泛的应用背景。此毕业设计课题将着眼于对高斯误差函数性质的探究及其在现代神经网络中的高效实现方法。特别地,将基于硬件平台,探讨针对高斯误差函数的算法流程以及依据此流程对GEF进行精确估算的高性能电路架构。在实验操作中,将学习利用现场可编程逻辑门阵列,开发适合不同精度要求的计算单元。而在计算效能(包括面积、速率和功耗等指标)方面,此架构将与基于软件的计算方法进行比对、分析和总结。 【关键字】高斯误差函数;神经网络;现场可编程逻辑阵列 一、相关概念 1.1 高斯误差函数 误差函数(也称之为高斯误差函数:Gauss Error Function)是一个非基本函数(即不是初等函数),它是高斯函数的不定积分。在数学上,凡不是初等函数的函数,皆称为非初等函数。应用“初等函数在其定义区间上连续”的逆否命题,在定义区间上不连续的函数是非初等函数。 高斯误差函数在概率论、统计学以及偏微分方程,半导体物理中都有广泛地应用。而在自然科学、社会科学、数学以及工程学等领域都有高斯函数的身影,这方面的例子包括:
以下是高斯误差函数的基本公式: 自变量为x的误差函数定义为 且有erf(infin;) = 1和erf(-x) = -erf(x)。
余补误差函数erfc(x)定义为: 误差函数的导数为: 误差函数的重积分定义为: 且 可得 误差函数的级数展开式为: 1.2 神经网络 人工神经网络(Artificial Neural Networks,简写为ANNs)也称作连接模型(Connection Model),它是一种模仿动物神经网络行为特征,进行分布式并行信息处理的算法数学模型。这种网络依靠系统的复杂程度,通过调整内部大量节点之间相互连接的关系,从而达到处理信息的目的。人工神经网络是一种应用类似于大脑神经突触联接的结构进行信息处理的数学模型。在工程与学术界也常直接简称为“神经网络”或“类神经网络”。 在理论模型研究的基础上构架具体的神经网络模型,以实现计算机模拟或准备制作硬件,包括网络学习算法的研究。这方面的工作也称为技术模型研究。 神经网络用到的算法就是向量乘法,并且广泛采用符号函数及其各种逼近。并行、容错、可以硬件实现以及自我学习特性,是神经网络的几个基本优点,也是神经网络计算方法与传统方法的区别所在。在网络模型与算法研究的基础上,利用人工神经网络组成实际的应用系统,例如,完成某种信号处理或模式识别的功能、构作专家系统、制成机器人、复杂系统控制等等。 纵观当代新兴科学技术的发展历史,人类在征服宇宙空间、基本粒子,生命起源等科学技术领域的进程中历经了崎岖不平的道路。我们也会看到,探索人脑功能和神经网络的研究将伴随着重重困难的克服而日新月异。 神经网络的理论研究可分为以下两类:1)利用神经生理与认知科学研究人类思维以及智能机理。2)利用神经基础理论的研究成果,用数理方法探索功能更加完善、性能更加优越的神经网络模型;深入研究网络算法和性能,如:稳定性、收敛性、容错性、鲁棒性等。 RBF神经网络和BP神经网络是两种神经网络,他们各自有各自的特点。BP(Back Propagation)网络是1986年由Rumelhart和McCelland为首的科学家小组提出,是一种按误差逆传播算法训练的多层前馈网络,是目前应用最广泛的神经网络模型之一。从计算的角度考虑,BP网络的算法可以划分成三个步骤,即前向传播、误差反向传播以及权值更新。通过对BP算法可重构性的分析,利用FPGA可以多次重复配置的特点,通过时分复用的方式,充分利用器件的逻辑资源,基于FPGA实现该算法的硬件电路,取得了较好性能,并有较高的灵活性。RBF神经网络可以根据具体问题确定相应的网络拓扑结构,具有自学习、自组织、自适应功能,它对非线性连续函数具有一致逼近性,学习速度快,可以进行大范围的数据融合,可以并行高速地处理数据。RBF神经网络的优良特性使得其显示出比BP神经网络更强的生命力,正在越来越多的领域内替代BP神经网络。目前,RBF神经网络已经成功地用于非线性函数逼近、时间序列分析、数据分类、模式识别、信息处理、图像处理、系统建模、控制和故障诊断等。 二、本课题的内容和要求 本毕业设计课题着眼于一类重要的特殊函数——高斯误差函数及其在现代神经网络中的高效实现。本次的研究是基于硬件的架构,相比基于软件有些不同。 人工神经网络作为一种新型的信息处理系统,由于基于传统软件实现,存在并行程度低和速度慢的缺点,使神经网络的实现不能满足实时性的要求,造成了理论研究与实际应用脱节。另外,用软件实现神经网络所需计算机体积庞大,不适合嵌入式场合的应用。而神经网络的硬件实现的最大特点就是体现了系统的并行性,处理速度快,易于满足实时性要求。另外,算法的复杂程度以及在实际工程中应用的可行性仍需要通过硬件的实现效果来检验。因此,神经网络的硬件实现意义重大。 FPGA 现场可编程门阵列是一个具有大量通用逻辑单元的器件,并且它的内部逻辑可以根据实际需要进行相应的改变。这种可重新配置的结构特征非常适合实现神经网络。人工神经网络(ANN)学习对于训练数据中的错误健壮性很好,且已被成功地应用到很多领域,例如视觉场景分析、语音识别、机器人控制以及医学图像处理等。 主要参考文献 [1] L. C. Andrews, Special functions of mathematics for engineers, Macmillan Pub Co. [2] G. R. Smith, FPGAs 101: Everything you need to know to get started, Elsevier. [3] R. C. Cofer and B. F. Harding, Rapid System Prototyping with FPGAs, Elsevier. [4] 徐文波,Xilinx FPGA开发实用教程,清华大学出版社,2008-11-01 [5] 夏宇闻,Verilog数字系统设计教程,北京航天航空大学出版社出版,2008 [6] 吴厚航,深入浅出玩转FPGA, 北京航空航天大学出版社,2010 [7] 葛亚明,零基础学FPGA,机械工业出版社,2010-9-1 [8] 张晓飞,FPGA技术入门与典型项目开发实例,化学工业出版社,2012 [9] 巴斯克,Verilog HDL入门,2008-9 [10] Simon Haykin,神经网络原理,机械工业出版社,2004-1-1 [11] (美)哈姆,科斯塔尼克,神经计算原理,机械工业出版社,2007-5-1 [12] 高隽,人工神经网络原理及仿真实例第2版,机械工业出版社,2007-02 [13] 张青贵,人工神经网络导论,水利水电出版社,2004-10-1 [14] 建模与仿真,汉斯出版社,2011 [15] 吴重光. 系统建模与仿真,清华大学出版社,2008 |
