杭州电商网站建设中,哪些最新软件能提供专业定制服务?
摘要:杭州的电商网站建设,最新的网站建设软件,伪静态就是把网站地址,高中文凭能学做网站吗❤️觉得内容不错的话,欢迎点赞收藏加关注😊😊&#
杭州的电商网站建设,最新的网站建设软件,伪静态就是把网站地址,高中文凭能学做网站吗❤️觉得内容不错的话#xff0c;欢迎点赞收藏加关注#x1f60a;#x1f60a;#x1f60a;#xff0c;后续会继续输入更多优质内容❤️#x1f449;有问题欢迎大家加关注私戳或者评论#xff08;包括但不限于NLP算法相关#xff0c;linux学习相关#xff0c;读研读博… ❤️觉得内容不错的话欢迎点赞收藏加关注后续会继续输入更多优质内容❤️有问题欢迎大家加关注私戳或者评论包括但不限于NLP算法相关linux学习相关读研读博相关......封面图由ERNIE-ViLG AI 作画大模型生成 Boosting三巨头XGBoost、LightGBM和CatBoost发展、原理、区别和联系附代码和案例
机器学习中提高模型精度是研究的重点之一而模型融合技术中Boosting算法是一种常用的方法。在Boosting算法中XGBoost、LightGBM和CatBoost是三个最为流行的框架。它们在实际使用中有各自的优势和适用场景下面将会介绍它们的区别与联系。
1. 算法原理
1.1 XGBoost
XGBoost是由陈天奇等人提出的一个优化的Gradient Boosting算法以其出色的表现和可扩展性而受到广泛关注。XGBoost使用了C实现可以运行在多个平台上并支持多种编程语言如Python、R、Java等。其原理可以概括为将弱学习器依次加入到一个全局的加权模型中每一轮迭代都在损失函数的梯度方向上优化模型。它在原有GBDT的基础上添加了正则化项和缺失值处理使得模型更加稳定和准确。其原理如下
首先假设有n个训练样本(xi,yi)(x_{i}, y_{i})(xi,yi)其中xix_{i}xi为输入特征yiy_{i}yi为输出值。那么目标就是找到一个函数f(x)使得f(x)f(x)f(x)可以预测yyy的值。
其次定义损失函数L(y,f(x))L(y, f(x))L(y,f(x))用来度量f(x)f(x)f(x)的预测值与实际值之间的误差。
再次我们使用Boosting算法来不断迭代提高模型精度。假设现在已经有了一个弱分类器fm−1(x)f_{m-1}(x)fm−1(x)那么我们希望找到一个新的弱分类器fm(x)f_{m}(x)fm(x)来减少L(y,f(x))L(y, f(x))L(y,f(x))的值。于是我们在已有的弱分类器fm−1(x)f_{m-1}(x)fm−1(x)基础上加上一个新的弱分类器fm(x)f_{m}(x)fm(x)最终得到新的分类器fm(x)fm−1(x)γhm(x)f_{m}(x)f_{m-1}(x)\gamma h_{m}(x)fm(x)fm−1(x)γhm(x)其中γ\gammaγ为学习率hm(x)h_{m}(x)hm(x)为新的弱分类器。
最后由于XGBoost使用了正则化项来控制模型的复杂度并采用了特殊的梯度下降方法进行训练使得其在处理高维稀疏数据时具有较好的效果。
1.2 LightGBM
LightGBM是由微软提出的一种基于Histogram算法的Gradient Boosting框架。它通过对样本特征值进行离散化将连续特征离散化为有限个整数从而将高维稀疏数据转化为低维稠密数据从而加速了训练速度。相比XGBoostLightGBM的最大优势在于其快速的训练速度和较小的内存占用这主要得益于其采用了基于直方图的决策树算法和局部优化等技术。LightGBM的核心思想是在构造决策树时将连续特征离散化为若干个桶然后将每个桶作为一个离散特征对待从而加速树的构建和训练过程。其原理如下
首先对于每个特征我们需要将其离散化为一些桶每个桶中包含一些连续的特征值。在训练时我们只需要计算每个桶中的样本的统计信息如平均值和方差而不需要计算每个样本的特征值从而减少了计算量。
其次对于每个样本我们根据离散化后的特征值将其归入对应的桶中然后计算桶中样本的统计信息。接着我们通过梯度单边采样GOSS算法选择一部分样本进行训练这些样本中包含了大部分的梯度信息从而保证了训练的准确性和效率。
最后LightGBM还使用了基于直方图的决策树算法使得在处理高维稀疏数据时具有较好的效果。
1.3 CatBoost
CatBoost是由Yandex提出的一种基于梯度提升算法的开源机器学习框架。它在处理分类问题时可以自动处理类别特征无需手动进行特征编码。CatBoost的原理与XGBoost和LightGBM类似同样是通过将多个弱学习器组合成一个强学习器。不同之处在于CatBoost使用了一种新的损失函数即加权交叉熵损失函数可以有效地处理类别不平衡问题。
