BP神经网络的隐层节点数对预测精度有何影响

2024-05-14 17:46

1. BP神经网络的隐层节点数对预测精度有何影响

神经网络本身的优化过程,实际上是对一组更加有效的层节点值进行选择。这个问题的回答,于是可以用两个很极端的例子来思考。一种情况是,只有一个节点。那么这个方程就变成了一个非常简单的线性方程y=ax+b的形式。其中a和b就是权值和偏置。在这种情况下,如果你有一个非线性的系统,那么肯定,这个预测的偏差就会非常大。另外一种情况,节点的数量无穷多。因为你的样本数量是有限的,那么如果想要达到一个比较好的优化,就会出现无限多的权值和偏重组合。这些组合都不相同,但是都可以达到一个类似的结果。那么结果就是,这些组合就会呈现出随机的特性,因为他们的初始值都是随机给出的。那么产生的结果就是,针对你的训练样本,他们的表现很可能非常好,但是如果你要做内推和外推,这个结果就会呈现出非常非常大的随机性。
那么产生了一个矛盾,如果节点数太小,那么无法完全的呈现出你样本的关联特性;如果选择节点数太多,那么你的神经网络结果又会呈现出极大的随机性。这是一个很矛盾的问题。
直到目前为止,我读到的文献中,只有一个人曾经提到,你的神经网络节点数量应该是你输入数据的大小*(2-32之间的数值)。比如你的输入数据为5个点,你有100个样本,那么你的节点数量选择就在5×2 到5×32之间。这个也和你的样本总数量有个,如果你有100个样本,那么5×32这种节点数量可能就太大了。5×32总共有160个权值160个偏置,其中还有各种交叉。100个样本想要解决这个问题,明显你能感觉到好像是用2个数组解一个4元的方程组一样。没有固定的解。
因为没有具体的问题,所以只能说这么多了。

BP神经网络的隐层节点数对预测精度有何影响

2. 神经网络隐含层节点数过多的危害!

实验表明,如果隐层结点数过少,网络不能具有必要的学习能力和信息处理能力。反之,若过多,不仅会大大增加网络结构的复杂性(这一点对硬件实现的网络尤其重要),网络在学习过程中更易陷入局部极小点,而且会使网络的学习速度变得很慢。隐层结点数的选择问题一直受到高度重视。

方法1: 
fangfaGorman指出隐层结点数s与模式数N的关系是:s=log2N;

方法二: 
Kolmogorov定理表明,隐层结点数s=2n+1(n为输入层结点数);

方法三: 
s=sqrt(0.43mn+0.12nn+2.54m+0.77n+0.35)+0.51 
(m是输入层的个数,n是输出层的个数)。

3. bp神经网络隐含层的误差是如何得到的?

1、神经网络算法隐含层的选取 1.1 构造法首先运用三种确定隐含层层数的方法得到三个隐含层层数,找到最小值和最大值,然后从最小值开始逐个验证模型预测误差,直到达到最大值。最后选取模型误差最小的那个隐含层层数。该方法适用于双隐含层网络。 1.2 删除法单隐含层网络非线性映射能力较弱,相同问题,为达到预定映射关系,隐层节点要多一些,以增加网络的可调参数,故适合运用删除法。 1.3黄金分割法算法的主要思想:首先在[a,b]内寻找理想的隐含层节点数,这样就充分保证了网络的逼近能力和泛化能力。为满足高精度逼近的要求,再按照黄金分割原理拓展搜索区间,即得到区间[b,c](其中b=0.619*(c-a)+a),在区间[b,c]中搜索最优,则得到逼近能力更强的隐含层节点数,在实际应用根据要求,从中选取其一即可。 BP算法中,权值和阈值是每训练一次,调整一次。逐步试验得到隐层节点数就是先设置一个初始值,然后在这个值的基础上逐渐增加,比较每次网络的预测性能,选择性能最好的对应的节点数作为隐含层神经元节点数。

bp神经网络隐含层的误差是如何得到的?

4. BP神经网络是不是隐含层节点数越多越好,还是只要最优就行!

1、神经网络算法隐含层的选取
1.1
构造法首先运用三种确定隐含层层数的方法得到三个隐含层层数,找到最小值和最大值,然后从最小值开始逐个验证模型预测误差,直到达到最大值。最后选取模型误差最小的那个隐含层层数。该方法适用于双隐含层网络。
1.2
删除法单隐含层网络非线性映射能力较弱,相同问题,为达到预定映射关系,隐层节点要多一些,以增加网络的可调参数,故适合运用删除法。
1.3黄金分割法算法的主要思想:首先在[a,b]内寻找理想的隐含层节点数,这样就充分保证了网络的逼近能力和泛化能力。为满足高精度逼近的要求,再按照黄金分割原理拓展搜索区间,即得到区间[b,c](其中b=0.619*(c-a)+a),在区间[b,c]中搜索最优,则得到逼近能力更强的隐含层节点数,在实际应用根据要求,从中选取其一即可。
BP算法中,权值和阈值是每训练一次,调整一次。逐步试验得到隐层节点数就是先设置一个初始值,然后在这个值的基础上逐渐增加,比较每次网络的预测性能,选择性能最好的对应的节点数作为隐含层神经元节点数。

5. BP神经网络中隐藏层节点个数怎么确定最佳

1、神经网络算法隐含层的选取1.1 构造法首先运用三种确定隐含层层数的方法得到三个隐含层层数,找到最小值和最大值,然后从最小值开始逐个验证模型预测误差,直到达到最大值。最后选取模型误差最小的那个隐含层层数。该方法适用于双隐含层网络。1.2 删除法单隐含层网络非线性映射能力较弱,相同问题,为达到预定映射关系,隐层节点要多一些,以增加网络的可调参数,故适合运用删除法。1.3黄金分割法算法的主要思想:首先在[a,b]内寻找理想的隐含层节点数,这样就充分保证了网络的逼近能力和泛化能力。为满足高精度逼近的要求,再按照黄金分割原理拓展搜索区间,即得到区间[b,c](其中b=0.619*(c-a)+a),在区间[b,c]中搜索最优,则得到逼近能力更强的隐含层节点数,在实际应用根据要求,从中选取其一即可。

BP算法中,权值和阈值是每训练一次,调整一次。逐步试验得到隐层节点数就是先设置一个初始值,然后在这个值的基础上逐渐增加,比较每次网络的预测性能,选择性能最好的对应的节点数作为隐含层神经元节点数。

BP神经网络中隐藏层节点个数怎么确定最佳

最新文章
热门文章
推荐阅读