行人重识别数据集-统一为market1501数据集进行多数据集联合训练

2023-12-25 12:29:54

一、前言

常用的数据集:
在这里插入图片描述数据集下载链接:https://kaiyangzhou.github.io/deep-person-reid/datasets.html
https://kaiyangzhou.github.io/deep-person-reid/datasets.html#sensereid-sensereid

二、数据集合并

第一步:market1501的数据集文件夹格式的创建

market1501的图片命名信息,以图片 0012_c4s1_000826_01.jpg 对数据集命名进行说明

  1. 0012 是行人 ID,Market 1501 有 1501 个行人,故行人 ID 范围为 0001-1501
  2. c4 是摄像头编号(camera 4),表明图片采集自第4个摄像头,一共有 6 个摄像头
  3. s1 是视频的第一个片段(sequece1),一个视频包含若干个片段
  4. 000826 是视频的第 826 帧图片,表明行人出现在该帧图片中
  5. 01 代表第 826 帧图片上的第一个检测框,DPM 检测器可能在一帧图片上生成多个检测框

DPM 检测器是DPM 是一种基于部件的模型,它将目标(如行人)视为多个部分的组合,这些部分可以有不同的形状和大小,并且它们之间的相对位置可以变形。例如在行人检测中,部件可能包括头部、手臂、躯干、腿等。这些部件被建模为滤波器,用于在图像中搜索与之对应的特征。

数据集的文件格式分析
下载好的 Market 1501 包括以下几个文件夹:

  • bounding_box_test 是测试集,包括 19732 张图片。gallery 是通过 DPM 检测器生成的。
  • bounding_box_train 是训练集,包括 12936 张图片。
  • query 是待查找的图片集,在 bounding_box_test 中实现查找。这些图片是手动绘制生成的。
  • gt_bbox 是手工标注的训练集和测试集图片,包括 25259 张图片,用来区分 “good” “junk” 和 “distractors” 图片。(基本弃用)
  • gt_query 是一些 Matlab 格式的文件,里面记录了 “good” 和 “junk” 图片的索引,主要被用来评估模型。(基本弃用)

因此,我们只需要创建几个文件夹-bounding_box_test 、bounding_box_train和query。使用的代码如下:

import os
def make_market_dir(dst_dir='./'):
    market_root = os.path.join(dst_dir, 'market1501')
    train_path = os.path.join(market_root, 'bounding_box_train')
    query_path = os.path.join(market_root, 'query')
    test_path = os.path.join(market_root, 'bounding_box_test')
 
    if not os.path.exists(train_path):
        os.makedirs(train_path)
    if not os.path.exists(query_path):
        os.makedirs(query_path)
    if not os.path.exists(test_path):
        os.makedirs(test_path)
if __name__ == '__main__':
   make_market_dir(dst_dir='E:/reID')

第二步:market1501数据集抽取

链接:https://pan.baidu.com/s/1Yf-Smagh1SOZzmhl7agzjQ
提取码:8741
将整个market1501数据集作为训练集,抽取的结果一共有 29419 张图片, ID从0001到1501一共1501 个不同ID的行人。

import re
import os
import shutil
 
def extract_market(src_path, dst_dir):
    img_names = os.listdir(src_path)
    pattern = re.compile(r'([-\d]+)_c(\d)')
    pid_container = set()
    for img_name in img_names:
        if '.jpg' not in img_name:
            continue
        print(img_name)
        # pid: 每个人的标签编号 1
        # _  : 摄像头号 2
        pid, _ = map(int, pattern.search(img_name).groups())
        # 去掉没用的图片
        if pid == 0 or pid == -1:
            continue
        shutil.copy(os.path.join(src_path, img_name), os.path.join(dst_dir, img_name))
 
if __name__ == '__main__':
    src_train_path = r'D:\data\market1501\bounding_box_train'
    src_query_path = r'D:\data\market1501\query'
    src_test_path = r'D:\data\market1501\bounding_box_test'
    # 将整个market1501数据集作为训练集
    dst_dir = r'E:\reID\market1501\bounding_box_train'
 
    extract_market(src_train_path, dst_dir)
    extract_market(src_query_path, dst_dir)
    extract_market(src_test_path, dst_dir)

第三步:CUHK数据集抽取

链接:https://pan.baidu.com/s/1y74mhK0PkIPBscHUxh-uGA
提取码:xvbc
CUHK03一共有 14097 张图片, ID从001502到002968一共1467个不同ID的行人

import glob
import re
import os.path as osp
import shutil
 
import re
import os
import shutil
 
def extract_cuhk03(src_path, dst_dir):
    img_names = os.listdir(src_path)
    pattern = re.compile(r'([-\d]+)_c(\d)_([\d]+)')
    pid_container = set()
    for img_name in img_names:
        if '.png' not in img_name and '.jpg' not in img_name:
            continue
        print(img_name)
        # pid: 每个人的标签编号 1
        # camid  : 摄像头号 2
        pid, camid, fname = map(int, pattern.search(img_name).groups())
        # 这里注意需要加上前面的market1501数据集的最后一个ID 1501
        # 在前面数据集的最后那个ID基础上继续往后排
        pid += 1501
        dst_img_name = str(pid).zfill(6) + '_c' + str(camid) + '_CUHK' + str(fname) + '.jpg'
        shutil.copy(os.path.join(src_path, img_name), os.path.join(dst_dir, dst_img_name))
 
if __name__ == '__main__':
    src_train_path = r'D:\data\cuhk03-np\detected\bounding_box_train'
    src_query_path = r'D:\data\cuhk03-np\detected\query'
    src_test_path = r'D:\data\cuhk03-np\detected\bounding_box_test'
    dst_dir = r'E:\reID\market1501\bounding_box_train'
 
    extract_cuhk03(src_train_path, dst_dir)
    extract_cuhk03(src_query_path, dst_dir)
    extract_cuhk03(src_test_path, dst_dir)

第四步:MSMT17数据集抽取

链接:https://pan.baidu.com/s/1EKmiYw9ZltvzJUAlYd06fQ
提取码:abg3
MSMT17一共有 126441 张图片, ID从002969到007069一共1467个不同ID的行人。

import glob
import re
import os.path as osp
import shutil
 
def msmt2market(dir_path, list_path, dst_dir, prev_pid):
    with open(list_path, 'r') as txt:
        lines = txt.readlines()
    pid_container = set()
    for img_idx, img_info in enumerate(lines):
        img_path, pid = img_info.split(' ')
        pid = int(pid) + prev_pid + 1 # 2969 5121
        camid = int(img_path.split('_')[2])
        img_path = osp.join(dir_path, img_path)
        name = img_path.split('/')[-1]  # '0001_c2_f0046182.jpg'
        Newdir = osp.join(dst_dir, str(pid).zfill(6) + '_c' + str(camid) + '_' + name)  # 用字符串函数zfill 以0补全所需位数
        shutil.copy(img_path, Newdir)  # 复制一个文件到一个文件或一个目录
 
 
    # check if pid starts from 0 and increments with 1
    for idx, pid in enumerate(pid_container):
        assert idx == pid, "See code comment for explanation"
 
if __name__ == '__main__':
    dataset_dir = r'D:\data\MSMT17_V2'
    train_dir = osp.join(dataset_dir, 'mask_train_v2')
    test_dir = osp.join(dataset_dir, 'mask_test_v2')
    list_train_path = osp.join(dataset_dir, 'list_train.txt')
    list_val_path = osp.join(dataset_dir, 'list_val.txt')
    list_query_path = osp.join(dataset_dir, 'list_query.txt')
    list_gallery_path = osp.join(dataset_dir, 'list_gallery.txt')
 
    dst_dir = r'E:\reID\market1501\bounding_box_train'
    msmt2market(train_dir, list_train_path, dst_dir, 2968)
    msmt2market(train_dir, list_val_path, dst_dir, 2968)
    msmt2market(test_dir, list_query_path, dst_dir, 4009)
    msmt2market(test_dir, list_gallery_path, dst_dir, 4009)

第五步:viper数据集抽取

链接:https://pan.baidu.com/s/1J6FAuse1VeFGurWQ7EOpxQ
提取码:1vsg
转换后的viper数据集一共有1264张图片, ID从007070到007943一共1467个不同ID的行人。需要注意这里ID不是连续的,不过只要ID跟之前不重复即可

import re
import os
import shutil
 
def extract_viper(src_path, dst_dir, camid=1):
    img_names = os.listdir(src_path)
    pattern = re.compile(r'([\d]+)_([\d]+)')
    pid_container = set()
    for img_name in img_names:
        if '.bmp' not in img_name:
            continue
        print(img_name)
        pid, fname = map(int, pattern.search(img_name).groups())
        # 这里注意需要加上前面的数据集的最后一个ID 7069
        # 由于viper数据集ID是从0开始,因此需要+1
        pid += 7069 + 1
        dst_img_name = str(pid).zfill(6) + '_c' + str(camid) + '_viper' + str(fname) + '.jpg'
        shutil.copy(os.path.join(src_path, img_name), os.path.join(dst_dir, dst_img_name))
 
if __name__ == '__main__':
    src_cam_a = r'D:\data\viper\cam_a'
    src_cam_b = r'D:\data\viper\cam_b'
    dst_dir = r'E:\reID\market1501\bounding_box_train'
 
    extract_viper(src_cam_a, dst_dir, camid=1)
    extract_viper(src_cam_b, dst_dir, camid=2)

第六步:SenseReID数据集抽取

转换后的SenseReID数据集一共有4428张图片, ID从007944到009661

import re
import os
import shutil
 
def extract_SenseReID(src_path, dst_dir, fname):
    img_names = os.listdir(src_path)
    pattern = re.compile(r'([\d]+)_([\d]+)')
    pid_container = set()
    for img_name in img_names:
        if '.jpg' not in img_name:
            continue
        print(img_name)
        pid, camid = map(int, pattern.search(img_name).groups())
        pid += 7943 + 1
        dst_img_name = str(pid).zfill(6) + '_c' + str(camid + 1) + '_SenseReID_' + fname + '.jpg'
        shutil.copy(os.path.join(src_path, img_name), os.path.join(dst_dir, dst_img_name))
 
if __name__ == '__main__':
    src_cam_a = r'D:\data\SenseReID\test_gallery'
    src_cam_b = r'D:\data\SenseReID\test_probe'
    dst_dir = r'E:\reID\market1501\bounding_box_train'
 
    extract_SenseReID(src_cam_a, dst_dir, 'gallery')
    extract_SenseReID(src_cam_b, dst_dir, 'probe')

第七步:prid数据集抽取

链接:https://pan.baidu.com/s/1tkjzN_-g-GwmSY7eCUPisw
提取码:4ttv
转换后的prid数据集一共有2268张图片, ID从009662到010795

import re
import os
import shutil
 
def extract_prid(src_path, dst_dir, prevID, camid=1):
    pattern = re.compile(r'person_([\d]+)')
    pid_container = set()
 
    sub_dir_names = os.listdir(src_path) # ['person_0001', 'person_0002',...
 
    for sub_dir_name in sub_dir_names: # 'person_0001'
        img_names_all = os.listdir(os.path.join(src_path, sub_dir_name))
        # 这里我就只取首尾两张,防止重复太多了
        img_names = [img_names_all[0], img_names_all[-1]]
        for img_name in img_names: # '0001.png'
            if '.png' not in img_name:
                continue
            print(img_name)
            # parent.split('\\')[-1] : person_0001
            pid = int(pattern.search(sub_dir_name).group(1))
            pid += prevID
            dst_img_name = str(pid).zfill(6) + '_c' + str(camid) + '_prid' + img_name.replace('.png', '.jpg')
            shutil.copy(os.path.join(src_path, sub_dir_name, img_name), os.path.join(dst_dir, dst_img_name))
 
if __name__ == '__main__':
    src_cam_a = r'D:\data\prid2011\multi_shot\cam_a'
    src_cam_b = r'D:\data\prid2011\multi_shot\cam_b'
    dst_dir = r'E:\reID\market1501\bounding_box_train'
 
    extract_prid(src_cam_a, dst_dir, 9661)
    extract_prid(src_cam_b, dst_dir, 10046)

第八步:ilids数据集抽取

链接:https://pan.baidu.com/s/1FfYx57Zc7iGuCQa1fMRRHA
提取码:yoww
转换后的ilids数据集一共有600张图片, ID从010796到011114

import re
import os
import shutil
 
def extract_ilids(src_path, dst_dir, prevID, camid):
    pattern = re.compile(r'person([\d]+)')
    pid_container = set()
 
    sub_dir_names = os.listdir(src_path)
 
    for sub_dir_name in sub_dir_names:
        img_names = os.listdir(os.path.join(src_path, sub_dir_name))
        for img_name in img_names:
            if '.png' not in img_name:
                continue
            print(img_name)
            pid = int(pattern.search(sub_dir_name).group(1))
            pid += prevID
            dst_img_name = str(pid).zfill(6) + '_c' + str(camid) + '_ilids' + '.jpg'
            shutil.copy(os.path.join(src_path, sub_dir_name, img_name), os.path.join(dst_dir, dst_img_name))
 
if __name__ == '__main__':
    src_cam_a = r'D:\data\ilids\i-LIDS-VID\images\cam1'
    src_cam_b = r'D:\data\ilids\i-LIDS-VID\images\cam2'
    dst_dir = r'E:\reID\market1501\bounding_box_train'
 
    extract_ilids(src_cam_a, dst_dir, 10795, 1)
    extract_ilids(src_cam_b, dst_dir, 10795, 2)

grid数据集抽取

链接:https://pan.baidu.com/s/1YbQT2px3Em-3KZTs6pLXmA
提取码:2tbc
grid数据集一共有500张图片, ID从011115到011364

import re
import os
import shutil
 
def extract_grid(src_path, dst_dir, camid=1):
    img_names = os.listdir(src_path)
    pattern = re.compile(r'([\d]+)_')
    pid_container = set()
    for img_name in img_names:
        if '.jpeg' not in img_name:
            continue
        print(img_name)
        pid = int(pattern.search(img_name).group(1))
        if pid == 0:
            continue
        pid += 11114
        dst_img_name = str(pid).zfill(6) + '_c' + str(camid) + '_grid' + '.jpg'
        shutil.copy(os.path.join(src_path, img_name), os.path.join(dst_dir, dst_img_name))
 
if __name__ == '__main__':
    src_cam_a = r'D:\data\grid\probe'
    src_cam_b = r'D:\data\grid\gallery'
    dst_dir = r'E:\reID\market1501\bounding_box_train'
 
    extract_grid(src_cam_a, dst_dir, camid=1)
    extract_grid(src_cam_b, dst_dir, camid=2)

参考链接:
1、行人重识别数据集转换–统一为market1501数据集进行多数据集联合训练
2、行人重识别数据集链接

文章来源:https://blog.csdn.net/qq_42178122/article/details/135193476
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。