Computational neuroscinece第一天

來自專欄計算神經學paper 閱讀5 人贊了文章

computational neuroscience

從今天開始,每天分享一篇computational neuroscience 相關文章,歡迎大家前來參觀,討論,並且順便監督我更新== 文章中鑒於專有名詞用英文比較方便,就中英文參雜著寫了。

今天討論的文章題目A neural basis of probabilistic computation in visual cortex. 近期發現的比較喜歡的文章。

主旨:討論V1 neuron responses 的variation對 最後decision making的影響。文章提出假設,對同樣的stimulus,最後decision making的過程會受依賴於neuron responses variation。 這裡的decision making 是指monkey 對stimulus二分類的過程。下圖具體介紹了下信號是怎麼傳播的過程。根據圖a,首先stimulus 進入Retina,然後到visual cortex, 再傳到prefrontal cortex, 而圖中question mark 的地方就是文章要解決的問題,根據responses 得到的stimulus likelihood function 是否會影響最後的分類結果。圖bc分別表示在 regardless of stimulus types 的情況,likelihood function和最後classification的關係,圖de表示stimulus dependent的情況。常理而言如果有多種stimulus那麼likelihood function和decision 肯定有一定的關係,但是如果對同一個stimulus而言,二者如果有關係那就是trail to trail variation play a role.

簡而言之,他們證明了population encoded likelihood function in mediate and offer potential neural underpinnings for bayesian models of perception.

那麼問題就來了,這個classification的任務是怎麼樣的?他們的likelihood function 是什麼? 怎麼證明這個likelihood function 作為中加協調決定最後的decision making? 最後,實驗結果證明的問題和他們提出的問題是不是可以畫上等號?

下面讓我們來一一解答。

  • 實驗設定如下圖, stimulus有兩類,每類都是一些orientation bar,只不過不同類orientation 的probability分布不一樣,雖然probability distribution的center 是一樣的但是variance 是不一樣的, experiment monkey需要看著屏幕300ms,開始出現drifting grating stimulus, subject need to saccade to red or blue point. (個人覺得這樣設計分類問題很奇怪,給一個stimulus你怎麼分定是那一類,可能這就是實驗的精髓所在,subject在training 過程中需要建立對兩類分布的記憶。另外是不是也是因為nature image可以根據類似的statistics 來分類嗎?) 理解實驗設計很簡單,但真的設計實驗很難,需要綜合考慮各方面的因素,儘可能排除掉各種潛在的影響因子。實驗沒設計好後續的分析就會很棘手。

實驗設計

  • 好的重點來了,what is this likelihood function looks like? they trained a deep neural network(two layers)== to predict per-trial likelihood function. This likelihood function describe given a stimulus, what is the probability to observe current population neural responses (96 multiunit here they use utah array). 如果我們用公式描述這個網路的工作就是(1). 其中b(r) 是一個scala 設置upper bound。暫不清楚為何需要這個。

這裡最終的目標還是要知道是那個stimulus, 所以後驗概率還是更重要,於是有了公式二

最後網路的輸出就是q(r), softmax(z(r))

The loss here is defined by KL divergence

since H(	heta|r)  is independent on network parameter W, so the above loss function is equivalent to cross entropy loss.

有很多其它形式的likelihood decoder,但大多都presume了neuron responses的形式,但是這個是可以自己學到這種結構,雖然不能確定是不是真實model了neuron coding 的模式,但我認為在performance層面是最好的。當然作者也有這個顧慮,插播--老闆總說 Andreas S.Tolias 是一個特別嚴謹的researcher,每次都會考慮各種confound (是這個單詞吧?)最終導致發不出文章==,,,作為一個嚴謹的研究人員,他simulate了data 作為ground truth比較傳統方法和DNN方法的差別。發現如果simulate 的neural data是independent 的poisson distribution 那麼傳統方法和DNN接近,但如果simulated neural data 之間有correlation那麼DNN更好。 網路還有一些細節部分,比如加了ReLu,加了L2 regularizer。 這個 mu_i 是通過對 log L 進行Laplacian 變換得到的。 這裡有點問題, L 是沒有辦法顯示獲得的,因為model中還有一個b(r)?

還有兩個參數,就是這個likelihood function 的mean 和standard deviation

先擺在這裡之後再用。

  • 重點二,如何建立V1 responses 的likelihood function 和最後decision making。並且這兩者是如何證明likelihood 的variation對decision making 有影響。首先根據bayesian decision maker 的假設, subject will compute the posterior of each class then make decision. 根據posterior distribution這裡還有兩種可能, 最後的決定是最大化後驗概率或者從後驗概率分布中採樣來make decision。為了涵蓋這兩種情況,作者以如下形式計算了probability ratio,

alpha =1時 decision 是matching probability, 當 alpha = infty 時最大化後驗概率。

最後概率分布可以用下式表示

這裡 lambda, p(C=1),mu,alpha 都是需要學習的參數。 L(	heta) 如果採用DNNmodel fit 的結果,那麼對於統一個stimulus 會有不同的variation, 把這個考慮進入model 就一定程度上說明trial variation 對decision making 有影響,但要明確影響就要有比較,所以作者用了一個fix 的variance的 L(	heta )

在這種情況下,確實DNN model的likelihood 要比fix variance的的likelihood更好。參見Figure 5. 但是這個performance可能因為提供了variance的信息,就理所當然的有更好的performance。所以作者想是不是shuffle trail 的variance會影響最後的prediction (也就是想確定是特定的variance影響performance,還是只要有variance就行), shuffle trial 的方式見Figure 5c。shuffle 降低performance,figure5b。那就說明特定的variance make a role in decision making.(插一句-----個人覺得neuroscience 要比computer science難啊,neuroscience有太多未知的東西有各種各樣的因素在裡面,但是computer science 只要追求performance就好了,畢竟想各種model不是一件難事,多嘗試總會找到提升performance的方向==,歡迎反駁)

整個文章的內容主要就是這些,作者證明了trial to trail 的variance確實傳到更high level 的cortex, 但是沒有討論這個variance 是做correct decision 還是作為一種干擾決定。因為最後fit model 的時候都是根據animal 的decision來的,而不是ground truth label。不過這個實驗本身就有stimulus的重合,如果要根據真實的class 比較應該很難吧。還有個問題就是likelihood的distribution在哪種情況下更傾向於分第一類,或者第二類,是不是跟class 本身的stimulus分布有關係。目前就想到這些,歡迎大家討論。


推薦閱讀:
查看原文 >>
相关文章