凡客诚品全屏宽度是多少?

摘要:网站全屏宽度是多少,凡客诚品来源,百度网首页登录入口,搜索引擎优化和关键词竞价广告的区别6.1.1 不变性 平移不变性(translation invariance)&am
网站全屏宽度是多少,凡客诚品来源,百度网首页登录入口,搜索引擎优化和关键词竞价广告的区别6.1.1 不变性 平移不变性#xff08;translation invariance#xff09;#xff1a; 不管检测对象出现在图像中的哪个位置#xff0c;神经网络的前面几层应该对相同的图像区域具有相似的反应#xff0c;即为“平移不变性”。 局部性#xff08;locality#xff09;translation invariance 不管检测对象出现在图像中的哪个位置神经网络的前面几层应该对相同的图像区域具有相似的反应即为“平移不变性”。 局部性locality 神经网络的前面几层应该只探索输入图像中的局部区域而不过度在意图像中相隔较远区域的关系这就是“局部性”原则。最终可以聚合这些局部特征以在整个图像级别进行预测。 6.1.2 多层感知机的限制 假设多层感知机的输入是 X X X将其隐藏表示记为 H H H二者形状相同。 使用 [ X ] i j [\boldsymbol{X}]_{ij} [X]ij​ 和 [ H ] i j [\boldsymbol{H}]_{ij} [H]ij​ 表示位置 ( i , j ) (i,j) (i,j) 位置上的像素点。 因为每个像素点都需要和其他像素点联系故每个像素点都需要一个二阶的权重张量又由于是二维图像故最终权重张量 W \mathrm{W} W 为四维。 再假设偏置参数为 U U U则可以将全连接层表示为 [ H ] i j [ U ] i j ∑ k ∑ l [ W ] i , j , k , l [ X ] k , l [\boldsymbol{H}]_{ij} [\boldsymbol{U}]_{ij}\sum_k\sum_l[\mathrm{W}]_{i,j,k,l}[\boldsymbol{X}]_{k,l} [H]ij​[U]ij​k∑​l∑​[W]i,j,k,l​[X]k,l​ 为了方便表示我们对下标 ( k , l ) (k,l) (k,l) 进行重新索引使得 k i a , l j b kia,ljb kia,ljb则可以得到重拍后的权重矩阵 [ V ] i , j , a , b [ W ] i , j , i a , j b [V]_{i,j,a,b}[\mathrm{W}]_{i,j,ia,jb} [V]i,j,a,b​[W]i,j,ia,jb​。 上式可表述为 [ H ] i j [ U ] i j ∑ a ∑ b [ V ] i , j , a , b [ X ] i a , j b [\boldsymbol{H}]_{ij} [\boldsymbol{U}]_{ij}\sum_a\sum_b[\mathrm{V}]_{i,j,a,b}[\boldsymbol{X}]_{ia,jb} [H]ij​[U]ij​a∑​b∑​[V]i,j,a,b​[X]ia,jb​ 平移不变性 现在引入平移不变性即检测对象在输入 X X X 中的平移应该仅导致隐藏表示 H H H 中的平移。简言之无须每个像素都要独享一个二维权值张量所有像素共享同一个即可故权重张量降为二维即可。此时式子可以简化为 [ H ] i j u ∑ a ∑ b [ V ] a , b [ X ] i a , j b [\boldsymbol{H}]_{ij} u\sum_a\sum_b[\boldsymbol{V}]_{a,b}[\boldsymbol{X}]_{ia,jb} [H]ij​ua∑​b∑​[V]a,b​[X]ia,jb​ 这就是所谓卷积使用系数 [ V ] a , b [\boldsymbol{V}]_{a,b} [V]a,b​ 对 ( i , j ) (i,j) (i,j) 附近的像素 ( i a , j b ) (ia,jb) (ia,jb) 进行加权得到 [ H ] i j [\boldsymbol{H}]_{ij} [H]ij​。 局部性 对于上述的 a , b a,b a,b 不应该取太大即范围不应太大至少不应该是全图。故可将 ∣ a ∣ Δ ∣ b ∣ Δ \left|a\right|\Delta \left|b\right|\Delta ∣a∣Δ∣b∣Δ的范围设置为0即不考虑范围外的影响。
阅读全文