手寫數字識別,就是個多分類問題。肺結節還得找出邊界,麻煩了。


肯定mnist好上手,以前學框架,都是先從minst開始的


手寫數字識別吧,這個很經典,很多入門框架的書籍里都有,單通道的圖片數據量也不會太大。相比識別,語義分割是基於像素級的網路會更大也更慢。


手寫數字識別


前者


這個肯定手寫體數字識別 因為各大深度學習書籍上面基本都有案例,例如《動手深度學習》pytorch或mxnet都可以的,github上面有來源項目,

https://github.com/ShusenTang/Dive-into-DL-PyTorch?

github.com

目前,該項目在 GitHub 上已獲得超過 萬星,並且中文版電子書還發布了紙質版書籍。不過雖然書籍非常優秀,但還是有一些讀者不太習慣用 Gluon 來寫代碼,畢竟開源項目大部分都是 TF 或 PyTorch 寫的。現在好了,我們可以直接結合書籍內容和 PyTorch 框架,更深入地理解 DL。

目錄

簡介

閱讀指南

1. 深度學習簡介

2. 預備知識

2.1 環境配置

2.2 數據操作

2.3 自動求梯度

3. 深度學習基礎

3.1 線性回歸

3.2 線性回歸的從零開始實現

3.3 線性回歸的簡潔實現

3.4 softmax回歸

3.5 圖像分類數據集(Fashion-MNIST)

3.6 softmax回歸的從零開始實現

3.7 softmax回歸的簡潔實現

3.8 多層感知機

3.9 多層感知機的從零開始實現

3.10 多層感知機的簡潔實現

3.11 模型選擇、欠擬合和過擬合

3.12 權重衰減

3.13 丟棄法

3.14 正向傳播、反向傳播和計算圖

3.15 數值穩定性和模型初始化

3.16 實戰Kaggle比賽:房價預測

4. 深度學習計算

4.1 模型構造

4.2 模型參數的訪問、初始化和共享

4.3 模型參數的延後初始化

4.4 自定義層

4.5 讀取和存儲

4.6 GPU計算

5. 卷積神經網路

5.1 二維卷積層

5.2 填充和步幅

5.3 多輸入通道和多輸出通道

5.4 池化層

5.5 卷積神經網路(LeNet)

5.6 深度卷積神經網路(AlexNet)

5.7 使用重複元素的網路(VGG)

5.8 網路中的網路(NiN)

5.9 含並行連結的網路(GoogLeNet)

5.10 批量歸一化

5.11 殘差網路(ResNet)

5.12 稠密連接網路(DenseNet)

6. 循環神經網路

6.1 語言模型

6.2 循環神經網路

6.3 語言模型數據集(周杰倫專輯歌詞)

6.4 循環神經網路的從零開始實現

6.5 循環神經網路的簡潔實現

6.6 通過時間反向傳播

6.7 門控循環單元(GRU)

6.8 長短期記憶(LSTM)

6.9 深度循環神經網路

6.10 雙向循環神經網路

7. 優化演算法

7.1 優化與深度學習

7.2 梯度下降和隨機梯度下降

7.3 小批量隨機梯度下降

7.4 動量法

7.5 AdaGrad演算法

7.6 RMSProp演算法

7.7 AdaDelta演算法

7.8 Adam演算法

8. 計算性能

8.1 命令式和符號式混合編程

8.2 非同步計算

8.3 自動並行計算

8.4 多GPU計算

9. 計算機視覺

9.1 圖像增廣

9.2 微調

9.3 目標檢測和邊界框

9.4 錨框

9.5 多尺度目標檢測

9.6 目標檢測數據集(皮卡丘)

? 9.7 單發多框檢測(SSD)

9.8 區域卷積神經網路(R-CNN)系列

9.9 語義分割和數據集

? 9.10 全卷積網路(FCN)

9.11 樣式遷移

? 9.12 實戰Kaggle比賽:圖像分類(CIFAR-10)

? 9.13 實戰Kaggle比賽:狗的品種識別(ImageNet Dogs)

10. 自然語言處理

10.1 詞嵌入(word2vec)

10.2 近似訓練

10.3 word2vec的實現

10.4 子詞嵌入(fastText)

10.5 全局向量的詞嵌入(GloVe)

10.6 求近義詞和類比詞

10.7 文本情感分類:使用循環神經網路

10.8 文本情感分類:使用卷積神經網路(textCNN)

10.9 編碼器—解碼器(seq2seq)

10.10 束搜索

10.11 注意力機制

10.12 機器翻譯


毫無疑問,手寫數字識別,這可是深度學習的經典案例~


顯然是mnist啊,入門必備


推薦閱讀:
相关文章