我们经常听到的一条信息是「深度学习只有在拥有大量数据时才有意义」。当然,深度学习需要能够从数据中自动学习特征,这通常只有在有大量训练数据可用时才有可能 ,特别是对于输入样本非常高维的问题,如图像。然而,卷积神经网路 —— 深度学习的支柱演算法 —— 是大多数「感知」问题(例如图像分类)的最佳模型之一,即使只有很少的训练数据,依然可以训练一个不错的模型,而不需要任何自定义特征工程。
更重要的是,深度学习模型本质上是高度可再利用的:例如,您可以采用在大规模数据集上训练的图像分类或语音到文本模型,然后在一个不同的任务重复使用它,只需进行微小的更改,如我们将在这篇文章中看到。特别是在计算机视觉的任务中,许多预先训练的模型(通常在ImageNet数据集上训练)现在可以公开下载,并且可以用于从非常少的数据中推导强大的视觉模型。