深度学习基础之线性回归模型

    技术2022-07-11  83

    第一次写Blog,为学习记录,免得以后忘了。以下所有内容都是自己的理解,如有错误,望指正。

    深度学习基础

    线性回归 (Linear Regression)

    不同于分类问题,线性回归返回的都是连续值,而分类问题返回的是离散值。返回的值是用输入网络的值经过一系列的与网络中的参数运算而得到的。

    模型 (Model)

    线性模型假设输入和输出的关系是线性的 通过输入大量的样本值来得到网络中权值的更新,从而完成网络的训练。

    训练数据 (Training Set)

    假如现在希望预测房屋的价格。现有的房屋称为样本(sample),房屋的价格称为样本的标签(label),用来预测标签的因素称为特征(features),在本例中,房屋的面积和年龄即为标签。

    回归模型的表达式是用样本特征(features),权值(weights),偏移(bias)线性运算组成的。每一个样本特征都有自己对应的权值和偏移。例如,更多人在意的只是房子的面积,而年龄相对于面积来说不那么重要,因此‘面积’的权值应当更高。

    损失函数(Loss Function)

    为了衡量什么时候网络的权值更新视作收敛,我们需要一个损失函数来定义预测值和真实值(标签)的差距。常用的损失函数有MSE等。

    优化算法(Optimization)

    有些简单的损失函数和模型可以直接通过求导的方法得到网络中参数的最优解,而有些复杂模型则不能,只能通过迭代来尽可能的降低损失函数的最优解。这一类解叫作数值解。

    在优化算法中,小批量随机梯度下降(mini-batch stochastic gradient descent)是比较常见和流行的方法。算法内容为:先随机选取一组参数初始值,然后迭代网络,通过降低样本的损失函数值来更新权值。这里的样本被分为了若干个小批次的样本。每个批次的样本都是单独训练来迭代网络。最后得出的损失函数均值即位损失函数的值。

    优化的意思是在每次计算完相关系数的偏导后对该系数进行更新,即得到一个近似于最优解的系数。

    注意,学习率和样本批的大小需要自行定义,因此这些参数被称为超参数。(hyperparameter)

    与神经网络的联系

    多对一线性回归的关系在神经网络中的表现即为一个单层的全连接(fully-connected)神经网络,每一个输入都连接到了同一个输出上。这里,负责计算的单元和输出单元为统一单元,称为神经元。 注:本文所有内容均引用https://zh.d2l.ai/chapter_deep-learning-basics/linear-regression.html

    Processed: 0.016, SQL: 9