【论文阅读笔记】《Conditional Generative Adversarial Nets》

论文:《Conditional Generative Adversarial Nets》

年份:2014年

引言

原始的GAN过于自由,训练会很容易失去方向,导致不稳定且效果差。比如说GAN生成MNIST数字的过程,虽然可以生成数字,但生成的结果是随机的(因为是根据输入的随机噪声生成的图片),没有办法控制模型生成的具体数字。

CGAN就是在原来的GAN模型中加入一些先验条件,使得GAN变得更加可控制。具体来说,我们可以在生成模型G和判别模型D中同时加入条件约束y来引导数据的生成过程。条件可以是任何补充的信息,如类标签等,这样我们在生成新的样本的同时,还能确切地控制新样本的类型。

cGAN结构

cGAN的全程是Conditional Generative Adversarial Networks,即条件对抗生成网络。它为生成器、判别器都额外加入了一个条件y,这个条件实际上是希望生成的标签。

生成器G必须要生成和条件y匹配的样本,判别器不仅要判别图像是否真实,还要判别图像和条件y是否匹配。cGAN的输入输出为:

  • 生成器G:输入一个噪声z,一个条件y,输出符合该条件的图像G。
  • 判别器D:输入一张图像x,一个条件y,输出该图像在该条件下的真实概率D(x|y)

优化目标

在原始的GAN中,优化目标为:

在cGAN中,在其中加入条件y,则优化目标修改成了:

以MNIST为例,生成器G和判别器D的输入输出是:

  • G输入一个噪声z,一个数字标签y(y的取值范围是0~9)。输出和数字标签相符合的图像G(z|y)。
  • D输入一个图像x,一个数字标签y。输出图像和数字符合的概率D(x|y)。

显然,在训练完成后,向G输入某个数字标签和噪声,可以生成对应数字的图像。

Pytorch代码实现

cGAN生成器

定义生成器及前向传播函数:

class Generator(nn.Module):
  def __init__(self):
    super().__init__()
    self.label_emb = nn.Embedding(10, 10)
    self.model = nn.Sequential(
      nn.Linear(110, 256),
      nn.LeakyReLU(0.2, inplace=True),
      nn.Linear(256, 512),
      nn.LeakyReLU(0.2, inplace=True),
      nn.Linear(512, 1024),
      nn.LeakyReLU(0.2, inplace=True),
      nn.Linear(1024, 784),
      nn.Tanh()
    )
  def forward(self, z, labels):
    z = z.view(z.size(0), 100)
    c = self.label_emb(labels)
    x = torch.cat([z, c], 1)
    out = self.model(x)
    return out.view(x.size(0), 28, 28)

其中,torch.nn.Embedding的函数介绍如下:

nn.Embedding(num_embeddings, embedding_dim)
"""
params:
- num_embeddings - 词嵌入字典大小,即一个字典里要有多少个词。
- embedding_dim - 每个词嵌入向量的大小。
"""

cGAN判别器

定义判别器及前向传播函数:

class Discriminator(nn.Module):
  def __init__(self):
    super().__init__()
    self.label_emb = nn.Embedding(10, 10)
    self.model = nn.Sequential(
      nn.Linear(794, 1024),
      nn.LeakyReLU(0.2, inplace=True),
      nn.Dropout(0.4),
      nn.Linear(1024, 512),
      nn.LeakyReLU(0.2, inplace=True),
      nn.Dropout(0.4),
      nn.Linear(512, 256),
      nn.LeakyReLU(0.2, inplace=True),
      nn.Dropout(0.4),
      nn.Linear(256, 1),
      nn.Sigmoid()
    )
    def forward(self, x, labels):
      x = x.view(x.size(0), 784)
      c = self.label_emb(labels)
      x = torch.cat([x, c], 1)
      out = self.model(x)
      return out.squeeze()

cGAN损失函数

定义判别器对真、假图像的损失函数:

# 定义判别器对真图像的损失函数:
real_validity = D(images, labels)
d_loss_real = criterion(real_validity, real_labels)

# 定义判别器对假图像(即由潜在空间点生成的图像)的损失函数
z = torch.randn(batch_size, 100).to(device)
fake_labels = torch.randint(0,10,(batch_size,)).to(device)
fake_images = G(z, fake_labels)
fake_validity = D(fake_images, fake_labels)
d_loss_fake = criterion(fake_validity, torch.zeros(batch_size).to(device))

#CGAN总的损失值
d_loss = d_loss_real + d_loss_fake

cGAN可视化

利用网格(10×10)的形式显示指定条件下生成的图像

from torchvision.utils import make_grid
z = torch.randn(100, 100).to(device)
labels = torch.LongTensor([i for i in range(10) for _ in range(10)]).to(device)
images = G(z, labels).unsqueeze(1)
grid = make_grid(images, nrow=10, normalize=True)
fig, ax = plt.subplots(figsize=(10,10))
ax.imshow(grid.permute(1, 2, 0).detach().cpu().numpy(), cmap='binary')
ax.axis('off')

查看指定标签数据

可视化指定单个数字条件下生成的数字:

def generate_digit(generator, digit):
  z = torch.randn(1, 100).to(device)
    
  label = torch.LongTensor([digit]).to(device)
    
  img = generator(z, label).detach().cpu()
    
  img = 0.5 * img + 0.5
    
  return transforms.ToPILImage()(img)

# 调用
generate_digit(G, 8)

可视化损失值

记录判别器和生成器的损失变化:

writer.add_scalars('scalars', {'g_loss': g_loss, 'd_loss': d_loss}, step)

原文地址:https://www.cnblogs.com/recoverableTi/p/13476812.html