分类和回归 回归:回归分析是一种统计学上分析数据的方法,目的在于了解两个或多个变量之间是否相关、相关方向和强度,并简历数学模型以便观察特定变量来预测研究者感兴趣的变量。 分类:对输入矢量以所定义的合适方式进行分类。 分类模型和回归模型本质一样,分类模型是将回归模型的输出离散化。分类和回归问题之间存在重要差异。 从根本上说,分类是关于预测标签,而回归是关于预测数量。
对于如何区分二者,其他回答已经说得很好了。如何区分类与回归,看的不是输入,而是输出的连续与否。 1.回归问题的应用场景 回归问题通常是用来预测一个值,如预测房价、未来的天气情况等等,例如一个产品的实际价格为500元,通过回归分析预测值为499元,我们认为这是一个比较好的回归分析。一个比较常见的回归算法是线性回归算法(LR)。另外,回归分析用在神经网络上,其最上层是不需要加上softmax函数的,而是直接对前一层累加即可。回归是对真实值的一种逼近预测。 回归预测建模是将输入变量(X)的映射函数(f)近似为连续输出变量(y)的任务。 连续输出变量是实数值,例如整数或浮点值。这些通常是数量,例如数量和大小。 例如,可以预测房屋可以出售特定的美元价值,可能在100,000美元到200,000美元的范围内 2.分类问题的应用场景 分类问题是用于将事物打上一个标签,通常结果为离散值。例如判断一幅图片上的动物是一只猫还是一只狗,分类通常是建立在回归之上,分类的最后一层通常要使用softmax函数进行判断其所属类别。分类并没有逼近的概念,最终正确结果只有一个,错误的就是错误的,不会有相近的概念。最常见的分类方法是逻辑回归,或者叫逻辑分类。
神经网络的目的就是分类和回归,根据已知经验来学习,学习之后,当遇到某种数据时,根据分类和回归对该数据行进某种关系的推理。