什么是泛化误差?它和训练误差的区别?
首先评判一个machine是否good的方法是其泛化能力,泛化能力可以由泛化误差来体现。
那么泛化误差是什么?
我们已经很熟悉的训练误差, 其公式是 ,其中 是预测值, 则是目标值,而 集合D是表示一个全集 的一个样本量为N的子集。
泛化误差的公式 , 表示的是在全集 中x出现的概率(此处的x可以是一个数据点也可以是一个数据点集合)。
是不是可以观察到他们的不同了?
训练误差计算了训练集的误差,而泛化误差是计算全集的误差。相比泛化误差来说,训练误差可以说只是计算了一部分的误差。举个例子。假设我们现在需要计算某个模型。假设在整个世界中,所有的数据有150个,如下图。