(1)不考慮效率問題

(2)是否更容易引起過擬合


可以,隨機搜索也可以,前提是你能承受計算複雜度的爆炸


……我只能說,你可以試一試………
large scale的問題。簡單來說:規模大的時候參數無法編碼。小規模的問題,早已有解決

首先我覺得題主你第一個前提有點屌。如果不考慮效率都行,是我就直接蒙特卡羅法在n維空間瘋狂取 10^xx 次方取點暴力求解。

綜合考慮效率和擬合效果。

(我不知道你的具體問題模型是啥所以也不太好說。)

對於以前做的圖像處理匹配,我有時用遺傳演算法做第一層網路的估計解,當做初始值。剩下的因為後面的神經元也相對少所以直接訓練。

給我的感覺還是,沒有過擬合,結果還行(遺傳演算法給網路初始值的辦法就是防止局部最小的……),但是等遺傳演算法繁殖n代實在是時間有點久。。

相比之下他的親戚粒子群跑的很快。不過。。識別率差10%

以及一個直接神經網路的訓練,4層,1024輸入,我沒等他跑完直接關了。。

最後說你說的過擬合,不單單和網路初始值有關,還和學習速度以及學習方式最大步數等等參數掛鉤,光憑一個xx演算法看不出什麼倪端。


遺傳演算法,是在你手頭沒有演算法的情況下才用的,所謂last choice
龐大的參數學習,交叉、變異複雜度都極高,而且你還要承受無止境的迭代··
很早以前有人做過了,你可以找找九十年代的文獻。還能夠連權重帶結構一起學習。我記得後來好像就沒人用了。


推薦閱讀:
相关文章