假設 一個人工智慧演算法被用於判斷人臉的性別。若此演算法已訓練至70%的準確率。能否通過:輸入一個未知人臉,判斷性別。將輸出結果和人臉作為訓練數據,訓練神經網路以更高的權重輸出這個結果的方式,來提高演算法準確率。 本人也知道這個想法很荒謬。(本人高三黨,突發奇想,求解答)


遷移學習

瞭解一下


「輸入一個未知人臉,判斷性別」,怎麼知道對不對?


不荒謬, 我現在就在做這種事...

但你這個操作方法有問題, 不能直接增加權重, 你這樣只會在過擬合的路上越走越遠...

我前段時間我在做動漫圖片檢測與識別.

正常方法是直接用標註集訓練, 然後不斷反饋強化正確率

但是有個致命的問題, 不存在我要的這種標註數據集...

我開局只有一個電腦, 數據全靠造.

然後我就先擼了個爬蟲, 讓它自己去抓圖.

然後自己先截一些人臉出來, 再直接隨機截圖生成不是人臉的東西.

構造一個二分類檢測器, 用的殘差架構, 隨便訓練一下.

接下來把這個訓練完的檢測器用於目標檢測, 就是 R-CNN 兩步走的戰略...

然後 R-CNN 能自己把爬蟲爬到的圖片裏的人臉檢測出來截圖了!

完美..........

可惜這樣不行........

最大的問題在於, 存在誤檢, 假陽性(False Positive)只會不斷地加深過擬合.

所以我作為人類, 這個頂級分類器的意見也是很重要的.

我要做的就是把假陽性重新扔進錯誤分類裏然後下一輪重新強化學習

漏檢這我也沒辦法了, 我又不能把圖都下下來自己截, 一天上萬張我怎麼看.....

只能調閾值, 前期調高點, 因為分類器真的爛, 後期可以降低點, 得到更多的數據.

然後就是爬蟲爬, 爬蟲爬完檢測檢, 檢測檢完我複查, 我複查完修分類

然後就是一個正向反饋循環了, 噢耶, 人肉學習演算法......

人工智慧人工智慧, 多少人工多少智能.......


BP神經網路就是這種,以輸出的信號做為反饋信號。

你說很多想法,可能已經有人實現了,總結成了網路圖。

強化學習就是這種可以邊工作邊學習的功能,但需要一個強大的電腦,因為實時學習需要消耗很多計算資源,這一點計算機遠不如各種動物。

在很多個人電腦和手機上,如果用這種實時的強化學習來計算視頻,現在的晶元算力嚴重不足,在伺服器上可以用強大的顯卡加速。未來估計深度學習要進一步發展,需要在晶元上加強了,蘋果和華為都在7nm的手機晶元上有神經網路晶元,但對通用的智能計算來說並不好用,未來可能會有更加通用性能直逼顯卡的神經網路晶元問世。

所以AI晶元是人工智慧產業競爭的關鍵。


第一次輸出的結果都不一定對,加強這個不一定對的結果為啥能提高準確性?


半監督學習裏的self-training瞭解一下?

這個辦法我試過,一開始挑選一些置信度非常高的,並且經過人工篩查的樣本,放入到訓練集裏去,但經過幾輪之後,訓練集基本就不變化了。因為本來分類器就能做對的樣本,就只是把這些樣本強化(過擬合)了而已,做不對的還是做不對,沒有辦法進一步提高模型的泛化能力。


這個想法還是很有趣的。將未標籤的數據輸入到一個確定的網路中得到soft target,然後是可以利用soft target來做一些事情。

比如Distillation就是設計更簡單的網路結構來回歸這些soft targets,以實現簡單網路模擬複雜深度網路的特性。

還有就是上面提到的tansfer learning,也包括secure learning一大類都會涉及到soft targets的概念。

另外今天看到一篇文章中提到了fine tune,feature extraction,以及unforgettable learning中對歷史網路結構與參數的討論和想法也與你說的這個前提有關。

不過簡單的加大權重訓練就不太對了,因為soft targets並不是ground truth,不能像期待監督學習一樣期待它能有很好的表現。

高三黨有這個idea已經很棒了。

另外,cv Ai真的已經到了普及教育的階段了嘛??


增強學習瞭解下。

把你說的人臉識別系統整個看成一個簡單的增強學習系統。你之前做人臉分類的分類器看做是生成策略的模型(每種策略對應到選擇一個人臉分類,這樣人臉分類問題就變成了策略選擇問題),然後生成的「策略「跟真實的label的比對作為評價函數,這樣就可以用叫做policy gradient的增強學習演算法來通過不斷輸出結果來優化系統。


目前都是反饋優化的方式,只不過具體的反饋方式不同,比如SGD,ADAM以及最新的一些迭代反饋方法。

全監督,半監督和無監督學習的反饋數據來源不同,比如標記樣本,GAN小樣本同步對抗生成,強化的環境反饋獎勵函數等等。

基本思想就是通過對輸出準確率和有效性的修正來反饋調節網路參數或模型結構實現的。


大部分回答讓我看到懷疑人生,真的做過機器學習麼。。

題主牛b,早生三十年,你就是機器學習大牛了。boost乾的就是這個事情,典型演算法adaboost gbdt,許多數據比賽中的王者。深入一點說,本質上是構造一系列的可加模型,訓練時候依據前面模型的結果對樣本加權來訓練後面模型,最後根據所有模型結果來對每個模型加權獲得最終預測結果。


謝邀。

不荒謬,這有個術語,弱監督學習


當然是可以的

可以看一下大連理工盧湖川教授團隊的RFCN等文章,都是通過預測結果,並將結果再做處理輸入到網路中。


看了一圈。

難道這些評論裏搞深度學習的都不知道 adboost xgboost?

在傳統機器學習中集成學習就是這個思路。

每次擬合上一模型的殘差或者加重預測錯誤的輸入權重。構建n個基模型共同組成一個新的模型。


高三的小兄弟不懂事啊,這不用假設,阿爾法狗大戰李世石那年就已經有演算法識別率高達90%,能別問這種沒營養的問題了不


偽標籤瞭解一下:

https://www.analyticsvidhya.com/blog/2017/09/pseudo-labelling-semi-supervised-learning-technique


推薦閱讀:
相關文章