手写数字识别,就是个多分类问题。肺结节还得找出边界,麻烦了。


肯定mnist好上手,以前学框架,都是先从minst开始的


手写数字识别吧,这个很经典,很多入门框架的书籍里都有,单通道的图片数据量也不会太大。相比识别,语义分割是基于像素级的网路会更大也更慢。


手写数字识别


前者


这个肯定手写体数字识别 因为各大深度学习书籍上面基本都有案例,例如《动手深度学习》pytorch或mxnet都可以的,github上面有来源项目,

https://github.com/ShusenTang/Dive-into-DL-PyTorch?

github.com

目前,该项目在 GitHub 上已获得超过 万星,并且中文版电子书还发布了纸质版书籍。不过虽然书籍非常优秀,但还是有一些读者不太习惯用 Gluon 来写代码,毕竟开源项目大部分都是 TF 或 PyTorch 写的。现在好了,我们可以直接结合书籍内容和 PyTorch 框架,更深入地理解 DL。

目录

简介

阅读指南

1. 深度学习简介

2. 预备知识

2.1 环境配置

2.2 数据操作

2.3 自动求梯度

3. 深度学习基础

3.1 线性回归

3.2 线性回归的从零开始实现

3.3 线性回归的简洁实现

3.4 softmax回归

3.5 图像分类数据集(Fashion-MNIST)

3.6 softmax回归的从零开始实现

3.7 softmax回归的简洁实现

3.8 多层感知机

3.9 多层感知机的从零开始实现

3.10 多层感知机的简洁实现

3.11 模型选择、欠拟合和过拟合

3.12 权重衰减

3.13 丢弃法

3.14 正向传播、反向传播和计算图

3.15 数值稳定性和模型初始化

3.16 实战Kaggle比赛:房价预测

4. 深度学习计算

4.1 模型构造

4.2 模型参数的访问、初始化和共享

4.3 模型参数的延后初始化

4.4 自定义层

4.5 读取和存储

4.6 GPU计算

5. 卷积神经网路

5.1 二维卷积层

5.2 填充和步幅

5.3 多输入通道和多输出通道

5.4 池化层

5.5 卷积神经网路(LeNet)

5.6 深度卷积神经网路(AlexNet)

5.7 使用重复元素的网路(VGG)

5.8 网路中的网路(NiN)

5.9 含并行连结的网路(GoogLeNet)

5.10 批量归一化

5.11 残差网路(ResNet)

5.12 稠密连接网路(DenseNet)

6. 循环神经网路

6.1 语言模型

6.2 循环神经网路

6.3 语言模型数据集(周杰伦专辑歌词)

6.4 循环神经网路的从零开始实现

6.5 循环神经网路的简洁实现

6.6 通过时间反向传播

6.7 门控循环单元(GRU)

6.8 长短期记忆(LSTM)

6.9 深度循环神经网路

6.10 双向循环神经网路

7. 优化演算法

7.1 优化与深度学习

7.2 梯度下降和随机梯度下降

7.3 小批量随机梯度下降

7.4 动量法

7.5 AdaGrad演算法

7.6 RMSProp演算法

7.7 AdaDelta演算法

7.8 Adam演算法

8. 计算性能

8.1 命令式和符号式混合编程

8.2 非同步计算

8.3 自动并行计算

8.4 多GPU计算

9. 计算机视觉

9.1 图像增广

9.2 微调

9.3 目标检测和边界框

9.4 锚框

9.5 多尺度目标检测

9.6 目标检测数据集(皮卡丘)

? 9.7 单发多框检测(SSD)

9.8 区域卷积神经网路(R-CNN)系列

9.9 语义分割和数据集

? 9.10 全卷积网路(FCN)

9.11 样式迁移

? 9.12 实战Kaggle比赛:图像分类(CIFAR-10)

? 9.13 实战Kaggle比赛:狗的品种识别(ImageNet Dogs)

10. 自然语言处理

10.1 词嵌入(word2vec)

10.2 近似训练

10.3 word2vec的实现

10.4 子词嵌入(fastText)

10.5 全局向量的词嵌入(GloVe)

10.6 求近义词和类比词

10.7 文本情感分类:使用循环神经网路

10.8 文本情感分类:使用卷积神经网路(textCNN)

10.9 编码器—解码器(seq2seq)

10.10 束搜索

10.11 注意力机制

10.12 机器翻译


毫无疑问,手写数字识别,这可是深度学习的经典案例~


显然是mnist啊,入门必备


推荐阅读:
相关文章