Tic商业评论

关注微信公众号【站长自定义模块】,定时推送前沿、专业、深度的商业资讯。

 找回密码
 立即注册

QQ登录

只需一步,快速开始

微信登录

微信扫码,快速开始

gan
    GAN — Unrolled GAN(如何减少模式崩溃)

    GAN — Unrolled GAN(如何减少模式崩溃)

    lijingle2022-1-13 21:27
    直觉:在任何游戏中,你都会提前预测对手接下来的几步棋,并相应地准备下一步棋。 在 Unrolled GAN 中,我们为生成器提供了一个机会,可以展开 k 步来了解鉴别器如何优化自身。 然后我们使用反向传播更新生成器,并 ...
    GAN — GAN 成本函数有什么问题?

    GAN — GAN 成本函数有什么问题?

    lijingle2022-1-13 21:09
    我们努力为深度学习生成数学模型。 但通常,我们并不成功,而是依靠经验数据来支持我们的论点。 Arjovsky 等人 2017 年写了一篇论文以数学方式说明 GAN 问题。 本文开发了一个数学模型,试图说明 GAN 成本函数的潜在 ...
    GAN - LSGAN、WGAN、WGAN-GP 或 BEGAN 重要吗?

    GAN - LSGAN、WGAN、WGAN-GP 或 BEGAN 重要吗?

    lijingle2022-1-13 20:52
    2017 年 Google Brain 的一篇论文“Are GANs Created Equal?” 声称最后,我们没有发现任何经过测试的算法始终优于原始算法的证据。该论文主张我们应该花时间在超参数优化上,而不是测试不同的cost函数。 那些像 LSG ...
    GAN — DRAGAN

    GAN — DRAGAN

    lijingle2022-1-12 21:29
    模式崩溃是训练 GAN 的一个主要问题。 在下图中,我们使用一个 BEGAN 来生成人脸。 对于每一行,我们使用不同的超参数 γ 来训练模型。 如最后一行所示,模式在 γ=0.3 时开始崩溃。 例如,带有相同颜色下划线的面孔 ...
    GAN — Wasserstein GAN & WGAN-GP

    GAN — Wasserstein GAN & WGAN-GP

    lijingle2022-1-12 19:24
    训练 GAN 很困难。 模型可能永远不会收敛,并且模式崩溃很常见。 为了向前迈进,我们可以进行渐进式改进或采用新的cost函数的新路径。 cost函数在 GAN 训练中重要吗? 本文是 GAN 系列的一部分,该系列详细研究了 Wa ...
    GAN — LSGAN

    GAN — LSGAN

    lijingle2022-1-11 20:41
    GAN 鉴别器将真实图像与生成的图像区分开来。 在实践中,鉴别器通常表现得相当好。 但作为生成器的评判者,它有多大帮助? 作为 GAN 系列的一部分,我们研究了 LSGAN(最小二乘 GAN),以了解成本函数如何改进 GAN ...
    GAN — Spectral Normalization

    GAN — Spectral Normalization

    lijingle2022-1-9 20:03
    GAN 容易受到模式崩溃和训练不稳定的影响。 在本文中,我们研究了频谱归一化以解决这些问题。 但是,要了解光谱归一化,我们需要先回顾一下 WGAN。 讨论将涉及可能不熟悉的数学概念。 我们将首先介绍这些术语,然后 ...
    GAN — 自注意力生成对抗网络 (SAGAN)

    GAN — 自注意力生成对抗网络 (SAGAN)

    lijingle2022-1-9 19:18
    GAN 如何使用注意力来提高图像质量,例如注意力如何提高语言翻译和图像字幕的准确性? 例如,图像字幕深度网络专注于图像的不同区域以在字幕中生成单词。下面突出显示的区域是网络在生成特定单词时重点关注的区域。 ...
    GAN — GAN 的渐进式增长

    GAN — GAN 的渐进式增长

    lijingle2022-1-9 16:51
    GAN 的逐步发展分多个阶段训练 GAN 网络。 在阶段 1,它采用潜在特征 z 并使用两个卷积层生成 4×4 图像。 然后,我们用生成的图像和 4×4 的真实图像训练判别器。 一旦训练稳定,我们在鉴别器中增加 2 个卷积层来将 ...
    GAN — Stacked生成对抗网络 (SGAN)

    GAN — Stacked生成对抗网络 (SGAN)

    lijingle2022-1-9 16:24
    在本文中,我们将研究 SGAN 的细节,它在 GAN 中产生了一些最高的图像质量。 堆叠生成对抗网络(SGAN)由编码器 y = E(x),其中 x 是图像,y 是其标签,并且解码器 x = G(y, z) 其中 z 是噪声。此处的解码器充当 GAN ...
    GAN — CGAN & InfoGAN(使用标签改进 GAN)

    GAN — CGAN & InfoGAN(使用标签改进 GAN)

    lijingle2022-1-9 15:45
    在判别模型(如分类)中,我们手工制作特征以使模型表现更好。 如果模型有足够的容量并且知道如何自己学习这些特征,则不需要这种做法。 在 GAN 中,训练模型非常重要。 它可以从标签中获得额外的帮助,以使模型表现 ...
    GAN — DCGAN(深度卷积生成对抗网络)

    GAN — DCGAN(深度卷积生成对抗网络)

    lijingle2022-1-9 15:32
    DCGAN 是 GAN 中流行且成功的网络设计之一。 它主要由没有最大池化或全连接层的卷积层组成。 它使用卷积步幅和转置卷积进行下采样和上采样。 下图是生成器的网络设计。以下是 DCGAN 的总结:用卷积步幅替换所有最大 ...
    GAN — 提高 GAN 性能的方法

    GAN — 提高 GAN 性能的方法

    lijingle2022-1-9 12:14
    与其他深度网络相比,GAN 模型在以下情况可能会受到严重影响。不收敛:模型不收敛,更糟糕的是它们变得不稳定。模式崩溃:生成器产生有限的模式,并且慢速训练:训练生成器的梯度消失了。作为 GAN 文章的一部分,本 ...
    证明(GAN 最佳点)

    证明(GAN 最佳点)

    lijingle2022-1-8 20:13
    我们已经提到优化 GAN 就是优化 JS-divergence。 这在cost函数中并不明显:我们将在此证明,同时证明对应的最优点为:p = q,鉴别器无法区分真假 D*(x) = 1/2,V* = -2 log2。证明:如果 G 是固定的,则最优判别器 D* ...
    GAN——为什么生成对抗网络非常困难!

    GAN——为什么生成对抗网络非常困难!

    lijingle2022-1-8 20:03
    识别莫奈的画比画一幅画更容易。 与判别模型(处理数据)相比,生成模型(创建数据)被认为更难。 训练 GAN 也很困难。 本文是 GAN 系列的一部分,将介绍为什么训练很难。 通过研究,我们了解了一些推动许多研究人员 ...
12下一页
电话咨询: 135xxxxxxx
关注微信