如何创建WordPress网站,并在首页展示分类文章列表?

摘要:怎么做属于自己的网站,wordpress 首页显示分类文章列表,wordpress header scroll style,wordpress钩子的意思目录 前言 几个高频面试题目 基于对比学习(ContrastiveLearning)的文
怎么做属于自己的网站,wordpress 首页显示分类文章列表,wordpress header scroll style,wordpress钩子的意思目录 前言 几个高频面试题目 基于对比学习(ContrastiveLearning)的文本表示模型【为什么】能学到文本【相似】度#xff1f; 为什么对比学习能学到很好的语义相似度#xff1f; 那么如何评价这个表示空间的质量呢#xff1f; 知识储备 监督学习和非监督学习 算法原理…目录 前言 几个高频面试题目 基于对比学习(ContrastiveLearning)的文本表示模型【为什么】能学到文本【相似】度 为什么对比学习能学到很好的语义相似度 那么如何评价这个表示空间的质量呢 知识储备 监督学习和非监督学习 算法原理 什么是对比学习 对比学习过程步骤 算法思想 前置任务 颜色变换 ​编辑 几何变换 基于上下文的 基于帧的 未来预测 视图预测 View Prediction (Cross modal-based) 确定对的前置任务 对比学习一般泛式 对比损失 原始对比损失 三元组损失triplet loss InfoNCE损失 对比方法如何工作的 Deep InfoMax Contrastive Predictive Coding 对比学习在NLP文本表示的一些方法 一. 基于BERT的句子表示 二. 基于对比学习的BERT表示学习 对比学习论文 NCL ICL RGCL  MCCLK  MIDGN  PCL BalFeat MiCE i-Mix Contrastive Learning with Hard Negative Samples LooC CALM Support-set bottlenecks for video-text representation learning SpCL SimCLR V2 Hard Negative Mixing for Contrastive Learning Supervised Contrastive Learning Contrastive Learning with Adversarial Examples LoCo What Makes for Good Views for Contrastive Learning? GraphCL ContraGAN  算法拓展 多层次对比学习的跨模态检索 方法 编码器 动量跨模态对比MCC 层次跨模态对比匹配HCM 实验 应用场景 半监督学习 前言 自监督学习Self-supervised learning最近获得了很多关注因为其可以避免对数据集进行大量的标签标注。它可以把自己定义的伪标签当作训练的信号然后把学习到的表示representation用作下游任务里。最近对比学习被当作自监督学习中一个非常重要的一部分被广泛运用在计算机视觉、自然语言处理等领域。它的目标是将一个样本的不同的、增强过的新样本们在嵌入空间中尽可能地近然后让不同的样本之间尽可能地远。 几个高频面试题目 基于对比学习(ContrastiveLearning)的文本表示模型【为什么】能学到文本【相似】度 有监督训练的典型问题就是标注数据是有限的。目前NLP领域的经验自监督预训练使用的数据量越大模型越复杂那么模型能够吸收的知识越多对下游任务效果来说越好。这可能是自从Bert出现以来一再被反复证明。所以对比学习的出现是图像领域为了解决“在没有更大标注数据集的情况下如何采用自监督预训练模式来从中吸取图像本身的先验知识分布得到一个预训练的模型”对比学习是自监督学习的一种也就是说不依赖标注数据要从无标注图像中自己学习知识。目前对比学习貌似处于“无明确定义、有指导原则”的状态它的指导原则是通过自动构造相似实例和不相似实例要求习得一个表示学习模型通过这个模型使得相似的实例在投影空间中比较接近而不相似的实例在投影空间中距离比较远。 为什么对比学习能学到很好的语义相似度 因为对比学习的目标就是要从数据中学习到一个优质的语义表示空间众所周知直接用BERT句向量做无监督语义相似度计算效果会很差。
阅读全文