假設 一個人工智慧演算法被用於判斷人臉的性別。若此演算法已訓練至70%的準確率。能否通過:輸入一個未知人臉,判斷性別。將輸出結果和人臉作為訓練數據,訓練神經網路以更高的權重輸出這個結果的方式,來提高演算法準確率。 本人也知道這個想法很荒謬。(本人高三黨,突發奇想,求解答)
遷移學習
瞭解一下
「輸入一個未知人臉,判斷性別」,怎麼知道對不對?
不荒謬, 我現在就在做這種事...
但你這個操作方法有問題, 不能直接增加權重, 你這樣只會在過擬合的路上越走越遠...
我前段時間我在做動漫圖片檢測與識別.
正常方法是直接用標註集訓練, 然後不斷反饋強化正確率
但是有個致命的問題, 不存在我要的這種標註數據集...
我開局只有一個電腦, 數據全靠造.
然後我就先擼了個爬蟲, 讓它自己去抓圖.
然後自己先截一些人臉出來, 再直接隨機截圖生成不是人臉的東西.
構造一個二分類檢測器, 用的殘差架構, 隨便訓練一下.
接下來把這個訓練完的檢測器用於目標檢測, 就是 R-CNN 兩步走的戰略...
然後 R-CNN 能自己把爬蟲爬到的圖片裏的人臉檢測出來截圖了!
完美..........
可惜這樣不行........
最大的問題在於, 存在誤檢, 假陽性(False Positive)只會不斷地加深過擬合.
所以我作為人類, 這個頂級分類器的意見也是很重要的.
我要做的就是把假陽性重新扔進錯誤分類裏然後下一輪重新強化學習
漏檢這我也沒辦法了, 我又不能把圖都下下來自己截, 一天上萬張我怎麼看.....
只能調閾值, 前期調高點, 因為分類器真的爛, 後期可以降低點, 得到更多的數據.
然後就是爬蟲爬, 爬蟲爬完檢測檢, 檢測檢完我複查, 我複查完修分類
然後就是一個正向反饋循環了, 噢耶, 人肉學習演算法......
人工智慧人工智慧, 多少人工多少智能.......
BP神經網路就是這種,以輸出的信號做為反饋信號。
你說很多想法,可能已經有人實現了,總結成了網路圖。
強化學習就是這種可以邊工作邊學習的功能,但需要一個強大的電腦,因為實時學習需要消耗很多計算資源,這一點計算機遠不如各種動物。
在很多個人電腦和手機上,如果用這種實時的強化學習來計算視頻,現在的晶元算力嚴重不足,在伺服器上可以用強大的顯卡加速。未來估計深度學習要進一步發展,需要在晶元上加強了,蘋果和華為都在7nm的手機晶元上有神經網路晶元,但對通用的智能計算來說並不好用,未來可能會有更加通用性能直逼顯卡的神經網路晶元問世。
所以AI晶元是人工智慧產業競爭的關鍵。