COCAS: A Large-Scale Clothes Changing Person Dataset for Re-identification 来源:CVPR 2020 日期:06月30日 周二
现存的绝大多数REID数据集中,单一行人的着装是相同的,然而在实际生活中,换衣服是不可避免的,想要REID算法落地投入应用,更不能回避行人着装变化的情况。 为此,文章贡献了新的换衣数据集COCAS(ClOthes ChAnging Person Set),数据集中同一行人有多种着装,且query不再是单张行人图片,而是行人图片加一张衣物模板(clothes template)图片,这与实际情况也相符。此外,作者提出双分支网络BC-Net(Biometric-Clothes Network),证明了通过服装模板实现REID的可行性。
共包含两个分支,一个处理服装相关特征(clothes-relevant feature),一个处理服装无关特征(clothes-irrelevant feature)如生物特征:人脸、体型、发型,最后融合两个特征,通过identification loss和triplet loss实现REID,网络的backbone是ResNet-50,结构如下:
其中生物特征分支中,Mask Module用于更好地提取服装无关、背景无关的特征,突出生物特征;对于服装特征分支,输入图像除了来自衣物模板外,还来自衣物检测器裁剪出的衣服图像。
对于生物特征: f k B = 1 H × W ∑ i = 1 H ∑ j = 1 W [ A k p ○ M p ] i , j f_k^B=\frac{1}{H\times{W}}\sum_{i=1}^H\sum_{j=1}^{W}[{\rm \textbf A}_k^p\,○\,{\rm \textbf M}^p]_{i,j} fkB=H×W1i=1∑Hj=1∑W[Akp○Mp]i,j
符号名描述 A k p ∈ R H × W × D {\rm \textbf A}_k^p \in \mathbb{R}^{H \times{W} \times{D}} Akp∈RH×W×D经过ResNet50得到的第k个channel的feature map H × W × D H \times{W} \times{D} H×W×Dfeature map size, D D D是feature dimension f k B f_k^B fkB f B f^B fB的第 k k k个元素 M p ∈ R H × W × 1 {\rm \textbf M}^p \in \mathbb{R}^{H\times{W}\times{1}} Mp∈RH×W×1 A k p {\rm \textbf A}_k^p Akp经过Mask Module得到的feature map○对应元素乘积融合生物特征与服装特征: f = W [ ( f B ) T , ( f C ) T ] T + b f={\rm \textbf W}[(f^B)^T,(f^C)^T]^T+{\rm \textbf b} f=W[(fB)T,(fC)T]T+b其中 W ∈ R d × 2 D {\rm \textbf W}\in \mathbb{R}^{d \times {2D}} W∈Rd×2D, b ∈ R D {\rm \textbf b}\in \mathbb{R}^{D} b∈RD, f f f在训练和测试阶段通过 L 2 L_2 L2范数归一化。
广东省CVPR2020论文预交流会,作者对本文作出了讲解——视频地址。 本文主要贡献还是提出一个换衣行人数据集,字里行间流露出作者团队采集制作数据集的艰辛。衣物更换确实是不可忽视的一个点,原有的REID工作不考虑衣物更换,我感觉更像是车辆重识别,因为车辆一般不会出现大变化。 目前数据集还没有公开,未来研究换衣行人重识别应该也是热门,此外,我看到过网上讨论利用步态识别(gait-recognition)行人身份的可行性,不知基于步态识别实现REID是否可行,值得进一步探讨。总得来说,REID工作可能不仅局限于衣物特征,人脸特征。