随机投影下的Plane-Gaussian人工神经网络开题报告

 2021-08-08 22:28:16

1. 研究目的与意义

近年来,由于计算机和人工智能技术发展,人工神经网络在很多领域受到了广泛的关注。

使用神经网络,可将复杂样本之间的关系通过网络训练隐含于网络的结构和参数之中,这样就可建立起反映系统模型内在规律的神经网络模型,通过此网络模型,就可以根据已有的数据来建立系统的输入输出关系。

鉴于神经网络这个自身的优点,使其作为一种常用的方法在模式识别领域中得到越来越广泛的应用。

剩余内容已隐藏,您需要先支付后才能查看该篇文章全部内容!

2. 国内外研究现状分析

聚类分析中,人们往往比较关注相似性度量,而忽略相似性度量中原型的选择对聚类结果的影响,王颖等在k-平面聚类(kpc)算法的基础上,通过引入模糊隶属关系,提出模糊k-平面聚类(fkpc)算法,两者的相似处在于都是以超平面代替聚类中心,有效聚类呈子空间分布的数据。

杨绪兵提出plane-gaussian神经网络模型,就是先通过k平面聚类,并根据聚类结果决定隐层结点数和计算输出权矩阵,实验结果证明pgf的训练速度快于mlp,而且对于有限样本数据集,pgf网络的训练精度比mlp和rbf都要高。

由于传统的人工神经网络中,网络的隐层节点参数是通过一定的迭代算法进行多次优化并最终确定的,这些迭代步骤往往会使参数的训练过程占用大量的时间,从而使网络训练过程的效率得不到保证。为增强构建网络的整体性能,huang g.b.等人提出了elm算法。该算法的特点是在网络参数的确定过程中,隐层节点参数(内权和偏置值)随机选取,无需调节;而网络的外权是通过最小化平方损失函数得到的最小二乘解。这样网络参数的确定过程中无需任何迭代步骤,从而大大

剩余内容已隐藏,您需要先支付后才能查看该篇文章全部内容!

3. 研究的基本内容与计划

采用plane-gaussian函数作为隐层结点激活函数,使该网络模型同时具备全局性和局部性能。先通过k平面聚类,并根据聚类结果决定隐层结点数和计算输出权矩阵。受extreme learning machine启发,本课题拟采用随机投影的方法训练网络,保证pg函数中的超平面方向选择更具多样性。用收集的数据对网络进行训练,与elm算法在分类精度、运行时间方面进行实验结果比较。

具体计划如下:

2015.1.152015.1.25 阅读文献,收集资料,熟悉plane-gaussian网络模型和elm算法

剩余内容已隐藏,您需要先支付后才能查看该篇文章全部内容!

4. 研究创新点

1、Plane-Gaussian网络具备全局逼近性能,由于采用kPC聚类获得输出权阵,所以训练时间较之BP网络更快;

2、采用随机投影方法训练网络,突破局部最优限制,缩短训练时间。

剩余内容已隐藏,您需要先支付 10元 才能查看该篇文章全部内容!立即支付

发小红书推广免费获取该资料资格。点击链接进入获取推广文案即可: Ai一键组稿 | 降AI率 | 降重复率 | 论文一键排版