个人网站:红色石头的机器学习之路
CSDN博客:红色石头的专栏 知乎:红色石头 微博:RedstoneWill的微博 GitHub:RedstoneWill的GitHub
微信公众号:AI有道(ID:redstonewill)
线性回归和逻辑回归通常是人们学习预测模型的第一个演算法。由于这二者的知名度很大,许多分析人员以为它们就是回归的唯一形式了。而了解更多的学者会知道它们是所有回归模型的主要两种形式。
事实是有很多种回归形式,每种回归都有其特定的适用场合。在这篇文章中,我将以简单的形式介绍 7 中最常见的回归模型。通过这篇文章,我希望能够帮助大家对回归有更广泛和全面的认识,而不是仅仅知道使用线性回归和逻辑回归来解决实际问题。
本文将主要介绍以下几个方面:
- 什么是回归分析?
- 为什么使用回归分析?
- 有哪些回归类型?
- 线性回归(Linear Regression)
- 逻辑回归(Logistic Regression)
- 多项式回归(Polynomial Regression)
- 逐步回归(Stepwise Regression)
- 岭回归(Ridge Regression)
- 套索回归(Lasso Regression)
- 弹性回归(ElasticNet Regression)
- 如何选择合适的回归模型?
1. 什么是回归分析?
回归分析是一种预测建模技术的方法,研究因变数(目标)和自变数(预测器)之前的关系。这一技术被用在预测、时间序列模型和寻找变数之间因果关系。例如研究驾驶员鲁莽驾驶与交通事故发生频率之间的关系,就可以通过回归分析来解决。
回归分析是进行数据建模、分析的重要工具。下面这张图反映的是使用一条曲线来拟合离散数据点。其中,所有离散数据点与拟合曲线对应位置的差值之和是被最小化了的,更多细节我们会慢慢介绍。