专题:深度学习
共147篇相关文章

PaddlePaddle迁移学习改num_classes参数为何总出现警告?
使用 PaddlePaddle 进行迁移学习,直接导入模型会有个警告,通过自定义网络结构,实现既加载了预训练模型,又能更好的训练自己的数据...

‘别玩手机’图像分类比赛,如何定义?
如今,手机已成为大众离不开的生活工具,而且它的迅速发展使得它的功能不再以通讯为主,手机逐渐发展为可移动的大众传播媒体终端设备,甚至可以比作为第五媒体。当今的大学生群体是智能手机使用者中的一支巨大的的队伍,零零后大学生在进入大学以来,学习生活...

PaddlePaddle如何用GAN生成MINIST手写数字图?
GAN 性能的提升从生成器 G 和判别器 D 进行左右互搏、交替完善的过程得到的。所以其 G 网络和 D 网络的能力应该设计得相近,复杂度也差不多。这个项目中的生成器,采用了两个全链接层接两组上采样和转置卷积层,将输入的噪声 Z 逐渐转化为...

Any-to-Bokeh技术能否一键实现电影感视频虚化效果?
针对视频散景制作常面临操作复杂、效果不自然等问题,难以满足创作者高效出片需求等问题,我们提出 Any-to-Bokeh 一键式视频虚化工具,对应的论文已被 ICLR2026 接收!该工具无需复杂操作无需专业操作即可生成电影感虚化效果。为短视...

如何将Pytorch模型训练过程迁移至GPU以提升处理效率?
如何使用GPU训练Pytorch模型 这两天的深度学习实验真实让人头疼,传说中的“猫狗大战”,对模型的训练用CPU的话9h起步,12h是常态,大学生哪耗得起,因此查找资料搭建了GPU环境。 确定CUDA版本 首先你需要知道自己的电脑处理器,...

图神经网络(GNN)是如何捕捉图结构数据的深层关系的?
一、概述 在人工智能领域,数据的多样性促使研究人员不断探索新的模型与算法。传统的神经网络在处理像图像、文本这类具有固定结构的数据时表现出色,但面对具有不规则拓扑结构的图数据,如社交网络、化学分子结构、知识图谱等,却显得力不从心。 图神经网络...

如何将深度学习模型在C平台部署成模型?
一、概述 深度学习模型能够在各种生产场景中发挥重要的作用,而深度学习模型往往在Python环境下完成训练,因而训练好的模型如何在生产环境下实现稳定可靠的部署,便是一个重要内容。C++开发平台广泛存在于各种...

Transformer模型的工作原理是什么?
Transformer 是一种基于自注意力机制(Self-Attention)的深度学习模型,最初由 Google 在 2017 年的论文《Attention Is All You Need》中提出,主要用于自然语言处理任务,如今已广泛应用...

BERT模型的基本原理和实现示例,能否详细介绍一下?
BERT(Bidirectional Encoder Representations from Transformers)是Google在2018年提出的预训练语言模型,其核心思想是通过双向Transformer结构捕捉上下文信息,为下游N...

GAN模型如何通过生成器和判别器协同训练,实现从分布数据中学习生成逼真样本的原理?
生成对抗网络(Generative Adversarial Network, GAN)是一种通过对抗训练生成数据的深度学习模型,由生成器(Generator)和判别器(Discriminator)两部分组成,其核心思想源于博弈论中的零和博弈...

如何用Keras实现VAE处理?
变分自编码器(variational autoencoder, VAE)是一种生成模型,训练模型分为编码器和解码器两部分。 编码器将输入样本映射为某个低维分布,这个低维分布通常是不同维度之间相互独立的多元高斯分布,因此编码器的输出为这个高斯...

激活函数在神经网络中应用广泛吗?
ReLu $max(0,z)$ 修正线性单元,是最常用的非线性映射函数。常在神经网络隐层中使用,因为它在反向传播中计算导数十分方便。导数为: $left{begin{aligned}&1,zge0\&am...

GAN和CGAN,如何构建生成模型?
GAN的定义 GAN是一个评估和学习生成模型的框架。生成模型的目标是学习到输入样本的分布,用来生成样本。GAN和传统的生成模型不同,使用两个内置模型以“对抗”的方式来使学习分布不断接近输入样本分布。两个模型一个是生成模型(Generativ...

深度学习优化算法有哪些,实验效果如何?
深度学习优化算法最耳熟能详的就是GD(Gradient Descend)梯度下降,然后又有一个所谓的SGD(Stochastic Gradient Descend)随机梯度下降,其实还是梯度下降,只不过每次更新梯度不用整个训练集而是训练集中...

批量归一化(BN)是什么原理?
现在的神经网络通常都特别深,在输出层向输入层传播导数的过程中,梯度很容易被激活函数或是权重以指数级的规模缩小或放大,从而产生“梯度消失”或“梯度爆炸”的现象,造成训练速度下降和效果不理想。 如何避免或者减轻这一现象的发生呢?归一化就是方法的...
