看到網上自編碼器的講解中,有人會將編碼後的特徵進行可視化,然後就將輸入層到隱層的權重可視化了,這個操作我能理解,但是意思是自編碼提取的特徵就是這個權重矩陣嗎,還是隱層的輸出。


謝邀。。

請記住一個概念,神經網路是數據特徵的提取和組合器。。


你說的應該是卷積網路吧,濾波器(權重)可視化只是可視化的一種,代表這個濾波器提取的是類似可視化後的這種特徵。自編碼提取的特徵自然是隱層的輸出,只是這個特徵是濾波器權重決定的。

舉個例子,假如一個隱層提取的特徵是圓形,一個隱層提取的特徵是方形。

可視化的結果把 「圓形」 和 「方形」 展現在你面前,但你提取的特徵向量可以是 「圓 1 方2」或者 「圓2 方 1」之類


當然是隱層輸出作為特徵呀,權重矩陣或者叫隱藏權重,只是一個特徵提取(映射)方法,對於不同的輸入是固定的,特徵對應於特定輸入。

什麼叫特徵?就是對某種事物的一種表示。一個簡單的例子,一個點,在歐氏坐標裏表示為(x,y),這就是在歐氏空間的特徵,在極坐標中表示為(r,θ),這就是在極坐標中的特徵。我們通過一個公式,可以將歐氏坐標映射為極坐標,這個映射參數就可以看成隱藏層參數,而映射後的值就是提取的新的特徵。


利用自編碼器提取的特徵,正常是指隱層的輸出,而不是隱層權重


瀉藥

是輸出值。

很好理解,權重訓練完就固定了,對於不同輸入都一樣,怎麼能是從數據中提取的特徵呢。


輸出值,卷積神經網路每一層都輸出都是這一層提取的特徵。你想要哪層的就可以給你哪一層的嘻嘻


謝邀。我一直把自編碼器看成一個降維過程,反應提取到的特徵就是用的隱層輸出。


推薦閱讀:
相關文章