如何为衡阳地区的网页建设培训机构提供专业的网站优化教程?

摘要:网页建设培训机构,衡阳网站优化教程,百度移动端关键词优化,网站短期技能培训文章目录 1、概述2、BN层3、LN层4、Pytorch的实现5、BN层和LN层的对比 1、概述 归一化(Normalization) 方法&#xff
网页建设培训机构,衡阳网站优化教程,百度移动端关键词优化,网站短期技能培训文章目录 1、概述2、BN层3、LN层4、Pytorch的实现5、BN层和LN层的对比 1、概述 归一化(Normalization) 方法#xff1a;指的是把不同维度的特征#xff08;例如序列特征或者图像的特征图等#xff09;转换为相同或相似的尺度范围内的方法#xff0c;比如把数据特征映射到[… 文章目录 1、概述2、BN层3、LN层4、Pytorch的实现5、BN层和LN层的对比 1、概述 归一化(Normalization) 方法指的是把不同维度的特征例如序列特征或者图像的特征图等转换为相同或相似的尺度范围内的方法比如把数据特征映射到[0, 1]或[−1, 1]区间内或者映射为服从均值为0、方差为1的标准正态分布。那为什么要进行归一化 样本特征由于来源和度量单位的不同或者经过多个卷积层处理后导致不同来源或者不同卷积层的输入特征尺度存在较大差异模型的优化方向可能会被尺度较大的特征所主导。而进行归一化可以使得尺度大致处于同一范围内从而有利于模型的训练和优化。 BN层(Batch Normalization)是在不同样本之间进行归一化。LN层(Layer Normalization)是在同一样本内部进行归一化。以下的图简单展示了二者的区别 参考链接https://blog.csdn.net/qq_44397802/article/details/128452207 2、BN层 下图很清晰的解释了BN层由于是Batch Normalization那么简单来说就是针对Batch中的不同样本之间求均值和标准差再做归一化 1如下图针对神经元的输出进行BN确定Batch size为N但是不同类型样本的维度可能不一样下图中维度为1例如图像经过卷积以后维度为C × \times ×H × \times ×W 2不论维度为多少各个样本之间的维度是相同的因此针对不同样本之间的对应维度计算出均值和标准差肯定与每个样本的维度相同下图中均值和标准差都为一维对于图像均值和标准差的维度为C × \times ×H × \times ×W 3针对每个神经元训练一组可学习的参数 γ \gamma γ和 β \beta β用于对输出的每个响应值做缩放和平移。 4注意如果样本为一维可学习参数的组数与输出的响应值的数量相等也与神经元的个数相等如果样本是图像输入为N × \times ×C1 × \times ×H × \times ×W卷积核个数为C2那么输出为N × \times ×C2 × \times ×H × \times ×W因此可学习参数的组数与输出通道数相等为C2也与卷积核个数相等。 5所以简单来说可学习参数的组数就与通道数相等。 3、LN层 一般来说层归一化所做的就是对于图像即输入为N × \times ×C × \times ×H × \times ×W的特征图在每个样本内部计算所有像素点的均值和标准差并针对每个像素点训练一组可学习参数 γ \gamma γ和 β \beta β用于进行缩放和平移以归一化到同一范围内。 如下图所示针对的是一个样本中的所有通道内的所有像素。也就是说和Batch无关。 因此可学习参数的组数就等于C × \times ×H × \times ×W。 计算公式 4、Pytorch的实现 BN层的实现 torch.nn.BatchNorm2d(num_features, eps1e-05, momentum0.1, affineTrue, track_running_statsTrue, deviceNone, dtypeNone)num_features输入尺寸为(N,C,H,W)则该值为CLN层的实现 torch.nn.LayerNorm(normalized_shape, eps1e-05, elementwise_affineTrue, deviceNone, dtypeNone)1normalized_shape归一化的尺寸输入的尺寸必须符合[∗×normalized_shape[0]×normalized_shape[1]×…×normalized_shape[−1]] 如果为单个整数则对最后一维进行归一化 2elementwise_affine是否具有可学习的参数默认为True如下为BN和LN层的实现以及参数量的计算 import torch from torch import nn# NLP Example batch, sentence_length, embedding_dim 20, 5, 10 embedding torch.randn(batch, sentence_length, embedding_dim) layer_norm nn.LayerNorm(embedding_dim) print(layer_norm) param_num sum([param.numel() for param in layer_norm.parameters()]) print(param_num) output_embed layer_norm(embedding) print(output_embed.shape)输出为 LayerNorm((10,), eps1e-05, elementwise_affineTrue) 20 torch.Size([20, 5, 10])import torch from torch import nn# Image Example N, C, H, W 20, 5, 10, 10 input0 torch.randn(N, C, H, W) # Normalize over the last three dimensions (i.e. the channel and spatial dimensions) layer_norm nn.LayerNorm([C, H, W]) # 参数量为C*H*W*2 print(layer_norm) param_num sum([param.numel() for param in layer_norm.parameters()]) print(param_num) output layer_norm(input0) print(output.shape)input1 torch.randn(N, C, H, W) batch_norm nn.BatchNorm2d(C) # 参数量为C*2 print(batch_norm) param_num1 sum([param.numel() for param in batch_norm.parameters()]) print(param_num1) output1 batch_norm(input1) print(output1.shape)输出为 LayerNorm((5, 10, 10), eps1e-05, elementwise_affineTrue) 1000 torch.Size([20, 5, 10, 10]) BatchNorm2d(5, eps1e-05, momentum0.1, affineTrue, track_running_statsTrue) 10 torch.Size([20, 5, 10, 10])5、BN层和LN层的对比 简单对比如下 参考链接https://blog.csdn.net/hymn1993/article/details/122719043