返回

淘宝同款,也能行人重识别?GAN换衣新奇招助力DG-Net惊艳CVPR

人工智能

NVIDIA开源DG-Net:利用GAN进行淘宝式换衣,助力行人重识别

在人工智能领域,计算机视觉技术近些年愈发成熟,基于视觉的应用层出不穷。行人重识别,作为计算机视觉技术在实际应用中十分重要的一个课题,近几年引起了研究领域的广泛关注。不同于人脸识别技术,行人重识别通常基于图像中行人的全身图像进行处理,研究的是如何在不同视角、不同时间和不同光照环境下,识别出同一个行人。然而,由于行人图像中往往包含大量的背景杂质和遮挡,在实际应用中行人重识别算法往往难以获得良好的效果。

近日,来自澳大利亚国立大学、悉尼科技大学和NVIDIA的研究人员共同提出了一个名为DG-Net的新型行人重识别网络模型,该模型以其独创的“淘宝式换衣”技术惊艳亮相CVPR2019,并斩获了大会的Oral殊荣。

DG-Net:从淘宝到行人重识别,换衣背后的巧思

DG-Net全称Discriminative and Generative Network,即判别生成网络,其工作原理与我们常在淘宝等电商平台上见到的“换衣”功能颇为类似。

在淘宝等电商平台上,用户往往可以在不更换实际衣物的情况下,通过换衣功能预览到自己穿着不同服饰的效果。这一功能的实现依赖于生成对抗网络(GAN)技术,即利用一个生成器模型和一个判别器模型的对抗训练过程,使生成器模型能够根据给定的图像生成逼真的新图像。

在行人重识别任务中,DG-Net同样借助GAN技术来生成新的行人图像。不同之处在于,DG-Net生成的并不是全新的图像,而是对原有图像进行“换衣”。具体来说,DG-Net使用生成器模型将行人图像中的衣服更换为其他样式,同时保留行人的身份特征,从而生成新的行人图像。

换衣背后的技术原理:判别与生成,对抗出真知

DG-Net模型包含一个判别器模型和一个生成器模型,这两个模型通过对抗训练的方式不断提升各自的能力。

判别器模型负责判断给定的行人图像是否真实,即是否为未经处理的原始图像。生成器模型则负责根据给定的行人图像生成新的行人图像,并且生成的图像需要满足判别器的真实性判断。

在训练过程中,生成器模型会不断生成新的行人图像,而判别器模型会不断更新其判断标准,以区分真实图像和生成图像。随着训练的进行,生成器模型能够生成越来越逼真的图像,而判别器模型也能够更加准确地判断图像的真实性。

“淘宝式换衣”的妙用:提升行人重识别准确率

通过“淘宝式换衣”,DG-Net模型能够生成大量包含不同服装的行人图像,这些图像与原有图像共享相同的身份特征,但又具有不同的外观。这对于行人重识别任务非常有益,因为在实际应用中,行人往往会穿着不同的衣服出现在不同场景中。

借助这些由生成器模型生成的图像,DG-Net模型能够学习到行人身份特征与服装外观之间的关系,从而提高行人重识别的准确率。

CVPR Oral殊荣,实至名归

在2019年的计算机视觉领域的顶级会议CVPR上,DG-Net模型凭借其独创的“淘宝式换衣”技术和出色的行人重识别效果,荣获了大会的Oral殊荣。这一殊荣充分肯定了DG-Net模型的创新性与实用性,也预示着GAN技术在行人重识别领域广阔的应用前景。