(1)不考虑效率问题

(2)是否更容易引起过拟合


可以,随机搜索也可以,前提是你能承受计算复杂度的爆炸


……我只能说,你可以试一试………
large scale的问题。简单来说:规模大的时候参数无法编码。小规模的问题,早已有解决

首先我觉得题主你第一个前提有点屌。如果不考虑效率都行,是我就直接蒙特卡罗法在n维空间疯狂取 10^xx 次方取点暴力求解。

综合考虑效率和拟合效果。

(我不知道你的具体问题模型是啥所以也不太好说。)

对于以前做的图像处理匹配,我有时用遗传演算法做第一层网路的估计解,当做初始值。剩下的因为后面的神经元也相对少所以直接训练。

给我的感觉还是,没有过拟合,结果还行(遗传演算法给网路初始值的办法就是防止局部最小的……),但是等遗传演算法繁殖n代实在是时间有点久。。

相比之下他的亲戚粒子群跑的很快。不过。。识别率差10%

以及一个直接神经网路的训练,4层,1024输入,我没等他跑完直接关了。。

最后说你说的过拟合,不单单和网路初始值有关,还和学习速度以及学习方式最大步数等等参数挂钩,光凭一个xx演算法看不出什么倪端。


遗传演算法,是在你手头没有演算法的情况下才用的,所谓last choice
庞大的参数学习,交叉、变异复杂度都极高,而且你还要承受无止境的迭代··
很早以前有人做过了,你可以找找九十年代的文献。还能够连权重带结构一起学习。我记得后来好像就没人用了。


推荐阅读:
相关文章