湖北建设科技中心网站是如何精心设计而成的?
摘要:湖北建设科技中心网站,漂亮的网站是什么建设出来的,捡个将军做男友啥网站能看,吴兴网站建设分类 分类是一种监督机器学习任务,其中训练模型来预测给定输入数据点的类或类别。分类旨在学习从输入特征到特定类或类别的映射。
湖北建设科技中心网站,漂亮的网站是什么建设出来的,捡个将军做男友啥网站能看,吴兴网站建设分类
分类是一种监督机器学习任务#xff0c;其中训练模型来预测给定输入数据点的类或类别。分类旨在学习从输入特征到特定类或类别的映射。
有不同的分类任务#xff0c;例如二元分类、多类分类和多标签分类。 二元分类是一项训练模型来预测两个类别之一的任务#xff0c…分类
分类是一种监督机器学习任务其中训练模型来预测给定输入数据点的类或类别。分类旨在学习从输入特征到特定类或类别的映射。
有不同的分类任务例如二元分类、多类分类和多标签分类。 二元分类是一项训练模型来预测两个类别之一的任务例如“垃圾邮件”或“非垃圾邮件”。 多类分类是一项训练模型来预测图像的多个类之一的任务例如“狗”、“猫”和“鸟”。 多标签分类是一项训练模型来预测单个数据点的多个标签的任务例如公园里狗的图像的“狗”和“户外”。
分类算法可以基于决策树、朴素贝叶斯、k 最近邻、支持向量机、随机森林、梯度提升、神经网络等技术。
最常见损失函数BCE、WBCE、CCE、Sparse Categorical Cross-entropy Loss、Cross-Entropy loss with label smoothing、Focal loss、Hinge Loss。
Binary Cross Entropy (BCE)
二元交叉熵BCE也称为对数损失是二元分类问题常用的损失函数。它测量类别的预测概率与真实类别标签之间的差异。
交叉熵是信息论中的一个众所周知的概念通常用于测量两个概率分布之间的差异。在二元分类中真实类别通常由 one-hot 编码向量表示其中真实类别的值为 1另一类别的值为 0。预测概率由预测概率向量表示每个类别其中真实类别的预测概率由 p ( y 1 ∣ x ) p(y 1|x) p(y1∣x) 表示其他类别的预测概率由 p ( y 0 ∣ x ) p(y 0|x) p(y0∣x) 表示。
损失函数定义为 L ( y , p ) − ( y l o g ( p ) ( 1 − y ) l o g ( 1 − p ) ) L(y, p) −(y log(p) (1 − y) log(1 − p)) L(y,p)−(ylog(p)(1−y)log(1−p))
其中 { − l o g ( p ) y 1 − l o g ( 1 − p ) y 0 \left\{\begin{matrix} −log(p) y 1\\ −log(1 − p)y 0 \end{matrix}\right. {−log(p)−log(1−p)y1y0
其中 y y y 是真实类标签0 或 1 p p p 是正类的预测概率。当预测概率 p p p 等于真实类标签 y y y 时损失函数最小化。
二元交叉熵损失具有几个理想的特性例如易于计算、可微分以及提供模型输出的概率解释。它还提供了平滑的优化表面并且与其他损失函数相比对异常值不太敏感。然而它对类不平衡问题很敏感当一个类的样本数量显着大于另一类时就会发生这种问题。对于这些情况可以使用加权二元交叉熵Weighted Binary Cross Entropy (WBCE)。
Weighted Binary Cross Entropy (WBCE)
标准二元交叉熵损失函数的变体其中在损失计算过程中考虑每个样本的权重。这在样本分布不平衡的情况下很有用。
在标准二元交叉熵损失中损失被计算为给定预测概率的真实标签的负对数似然。在加权二元交叉熵WBCE中为每个样本分配一个权重每个样本的损失计算如下 L − ( w i ⋅ y l o g ( p ) w i ( 1 − y ) l o g ( 1 − p ) ) L −(w_i · ylog(p) w_i(1 − y)log(1 − p)) L−(wi⋅ylog(p)wi(1−y)log(1−p)) 其中 w i w_i wi是分配给第 i i i 个样本的权重 y y y 是真实标签 p p p 是正类的预测概率。
通过为代表性不足的类别的样本分配更高的权重鼓励模型更多地关注这些样本并且可以提高模型的整体性能。
Categorical Cross-entropy Loss (CCE)
分类交叉熵CCE又称负对数似然损失或多类对数损失是一种用于多类分类任务的函数。它衡量的是预测概率分布与真实分布之间的差异。
鉴于预测的概率分布它被定义为真实类别的平均负对数似然。
