jiqi

    技术2022-07-10  376

    https://sklearn.apachecn.org/docs/master/2.html

    1,最小二乘法 拟合一个带有系数 w = (w_1, …, w_p) 的线性模型,使得数据集实际观测数据和预测数据(估计值)之间的残差平方和最小。其数学表达式为: {min,} {|| X w - y||_2}^2

    2,支持向量机(SVM):可以用于监督学习的分类、回归、异常检测 优势:

    在高维空间中非常有效;即使在数据维度比样本数量大的情况下仍然有效.在决策函数(称为支持向量)中使用训练集的子集,因此它也是高效利用内存的.通用性: 不同的核函数 核函数 与特定的决策函数一一对应.常见的 kernel 已经提供,也可以指定定制的内核.

    缺点:

    如果特征数量比样本数量大得多,在选择核函数 核函数 时要避免过拟合, 而且正则化项是非常重要的.支持向量机不直接提供概率估计,这些都是使用昂贵的五次交叉验算计算的
    Processed: 0.010, SQL: 9