西瓜网站在建设教程视频中遇到500错误,该如何解决?

摘要:网站建设教程视频西瓜,网站报错 500,成熟的网站怎么做seo推广,做网站抽奖系统来源:投稿 作者:Mr.Eraser 编辑:学姐 论文标题&
网站建设教程视频西瓜,网站报错 500,成熟的网站怎么做seo推广,做网站抽奖系统来源#xff1a;投稿 作者#xff1a;Mr.Eraser 编辑#xff1a;学姐 论文标题#xff1a;用于多类异常检测的统一模型 论文链接#xff1a;https://arxiv.org/abs/2206.03687 论文贡献#xff1a; 提出UniAD#xff0c;它以一个统一框架完成了多个类别的异常检测。 … 来源投稿 作者Mr.Eraser 编辑学姐 论文标题用于多类异常检测的统一模型 论文链接https://arxiv.org/abs/2206.03687 论文贡献 提出UniAD它以一个统一框架完成了多个类别的异常检测。 提出分层的查询解码器来帮助建立多类分布的模型。 采用邻居屏蔽的注意力模块以进一步避免从输入特征到重构输出特征的信息泄漏。 提出一种特征抖动策略即使在有噪声输入的情况下也能敦促模型恢复正确的信息 1.引言 异常检测在制造业缺陷检测、医学图像分析和视频监控中得到了越来越广泛的应用。考虑到高度多样化的异常类型一个常见的解决方案是对正常样本的分布进行建模然后通过寻找离群值来识别异常样本。因此学习正常数据的紧凑边界至关重要如图a所示。 当涉及到多类情况时我们希望模型能同时捕捉到所有类别的分布这样它们就能像图b那样共享同一个边界。但是如果我们专注于某一特定类别比如说图b中的绿色类别那么其他类别的所有样本都应该被视为异常无论它们本身是正常的即蓝圆圈还是异常的即蓝三角形。从这个角度来看如何准确地对多类分布进行建模变得至关重要。 综上所述本文摆脱了传统的为每一类训练一个模型的范式图c 并设法用一个统一的框架图d完成对各种类的异常检测。 2.相关工作分析 MLP, CNN, Transformer和提出的UniAD在MVTec-AD数据集上的比较图a表示训练损失蓝色, 异常检测绿色和定位红色的测试AUROC。在MLP, CNN和Transformer的训练过程中正常样本的重建误差不断变小但在异常情况下的性能在达到峰值后却严重下降。这是由于模型学习了一个 “相同的捷径”它倾向于直接复制输入作为输出不管它是正常的还是异常的。图b“捷径”的视觉解释异常样本可以被很好地恢复因此变得很难从正常样本中检测出来。 相比之下UniAD克服了上述问题并设法将异常样本重建为正常样本。值得注意的是所有的模型都是为特征重建而学习的并且采用了一个单独的解码器来渲染来自特征的图像。这个解码器只用于可视化。 3.UniAD 方法概览 UniAD 的框架如下由一个Neighbor Masked Encoder (NME)和一个Layer-wise Query Decoder (LQD)组成。LQD的每一层都采用了可学习的查询嵌入来帮助建立复杂的训练数据分布模型。Transformer中的全部注意力被邻居屏蔽的注意力所取代以避免信息从输入到输出的泄漏。特征抖动策略鼓励模型在嘈杂的输入中恢复正确的信息。所有这三项改进都有助于模型避免学习 “相同的捷径“。 3.1Neighbor masked attention 我们怀疑原始Transformer中的full- attention对 “相同的捷径 ”有所贡献。在full- attention中一个token被允许看到自己所以它将很容易通过简单的复制来进行重建。 此外考虑到特征tokens是由CNN骨干提取的相邻的tokens一定有很多相似之处。 因此提出在计算注意力图时对相邻token进行屏蔽即Neighbor Masked Attention (NMA)。请注意邻居区域是在二维空间定义的如图4所示。 3.2 Neighbor masked encoder Layer-wise query decoder Neighbor masked encoder 编码器遵循原始Transformer中的标准架构。每层由一个注意力模块和一个前馈网络FFN组成。然而full-attention被提出的NMA取代以防止信息泄露。 Layer-wise query decoder 查询嵌入可以帮助防止重建异常但原始Transformer中只有一个查询嵌入。因此我们设计了一个分层查询解码器LQD来加强查询嵌入的使用如图3所示。具体来说在LQD的每一层可学习的查询嵌入首先与编码器嵌入融合然后与前一层的输出融合第一层的自我融合。特征融合是由NMA实现的。在原始Transformer之后一个2层的FFN被应用于处理这些融合的tokens并且利用残余连接来促进训练。LQD的最终输出作为重构的特征。
阅读全文