• SSD源码解读——数据读取


    之前,对SSD的论文进行了解读,可以回顾之前的博客:https://www.cnblogs.com/dengshunge/p/11665929.html

    为了加深对SSD的理解,因此对SSD的源码进行了复现,主要参考的github项目是ssd.pytorch。同时,我自己对该项目增加了大量注释:https://github.com/Dengshunge/mySSD_pytorch

    搭建SSD的项目,可以分成以下三个部分:

    1. 数据读取;
    2. 网络搭建
    3. 损失函数的构建
    4. 网络测试

    接下来,本篇博客重点分析数据读取


    一、整体框架

    SSD的数据读取环节,同样适用于大部分目标检测的环节,具有通用性。为了方便理解,本项目以VOC2007+2012为例。因此,数据读取环节,通常是按照以下步骤展开进行:

    1. 函数入口;
    2. 图片的读取和xml文件的读取;
    3. 对GT框进行处理;
    4. 数据增强;
    5. 辅助函数。

    二、具体实现细节

    2.1 函数入口

    数据读取的函数入口在train.py文件中:

    if args.dataset == 'VOC':
        train_dataset = VOCDetection(root=args.dataset_root)
        train_loader = torch.utils.data.DataLoader(
            train_dataset, batch_size=args.batch_size, num_workers=4,
            collate_fn=detection_collate, shuffle=True, pin_memory=True)

    可以看到,首先通过函数 VOCDetection() 来对VOC数据集进行初始化,再使用函数 DataLoader() 来实现对数据集的读取。这一步与常见的分类网络形式相同,但不同的是,多了collate_fn这一参数,后续会对此进行说明。

    2.2 图片与xml文件读取

    首先,我们先看看函数VOCDetection() 的初始化函数__init__()。在__init__中包含了需要传入的几个参数,image_sets(表示VOC使用到的数据集),transform(数据增强的方式),target_transform(GT框的处理方式)。

    class VOCDetection():
        """VOC Detection Dataset Object
    
        input is image, target is annotation
    
        Arguments:
            root (string): filepath to VOCdevkit folder.
            image_set (string): imageset to use (eg. 'train', 'val', 'test')
            transform (callable, optional): transformation to perform on the input image
                图片预处理的方式,这里使用了大量数据增强的方式
            target_transform (callable, optional): transformation to perform on the
                target `annotation`
                (eg: take in caption string, return tensor of word indices)
                真实框预处理的方式
        """
    
        def __init__(self, root,
                     image_sets=[('2007', 'trainval'), ('2012', 'trainval')],
                     transform=SSDAugmentation(size=config.voc['min_dim'], mean=config.MEANS),
                     target_transform=VOCAnnotationTransform()):
            self.root = root
            self.image_set = image_sets
            self.transform = transform
            self.target_transform = target_transform
            self._annopath = os.path.join('%s', 'Annotations', '%s.xml')
            self._imgpath = os.path.join('%s', 'JPEGImages', '%s.jpg')
            self.ids = []
            # 使用VOC2007和VOC2012的train作为训练集
            for (year, name) in self.image_set:
                rootpath = os.path.join(self.root, 'VOC' + year)
                for line in open(os.path.join(rootpath, 'ImageSets', 'Main', name + '.txt')):
                    self.ids.append([rootpath, line[:-1]])

    首先,为什么image_sets是这样的形式呢?因为VOC具有固定的文件夹路径,利用这个参数和配合路径读取,可以读取到txt文件,该txt文件用于制定哪些图片用于训练。此外,还需要设置参数self.ids,这个list用于存储文件的路径,由两列组成,"VOC/2007"和图片名称。通过这两个参数,后续可以配合函数_annopath()和_imgpath()可以读取到对应图片的路径和xml文件。

    在pytorch中,还需要相应的函数来对读取图片与返回结果,如下所示。其中,重点是pull_iterm函数。

        def __getitem__(self, index):
            im, gt = self.pull_item(index)
            return im, gt
    
        def __len__(self):
            return len(self.ids)
    
        def pull_item(self, index):
            img_id = tuple(self.ids[index])
            # img_id里面有2个值
            target = ET.parse(self._annopath % img_id).getroot()  # 获得xml的内容,但这个是具有特殊格式的
            img = cv2.imread(self._imgpath % img_id)
            height, width, _ = img.shape
    
            if self.target_transform is not None:
                # 真实框处理
                target = self.target_transform(target, width, height)
    
            if self.transform is not None:
                # 图像预处理,进行数据增强,只在训练进行数据增强,测试的时候不需要
                target = np.array(target)
                img, boxes, labels = self.transform(img, target[:, :4], target[:, 4])
                # 转换格式
                img = img[:, :, (2, 1, 0)]  # to rbg
                target = np.hstack((boxes, np.expand_dims(labels, axis=1)))
            return torch.from_numpy(img).permute(2, 0, 1), target

    该函数pull_item(),首先读取图片和相应的xml文件;接着对使用类VOCAnnotationTransform来对GT框进行处理,即读取GT框坐标与将坐标归一化;然后通过函数SSDAugmentation()对图片进行数据增强;最后对对图片进行常规处理(交换通道等),返回图片与存有GT框的list。

    2.3 对GT框进行处理

    接着,需要讲一讲这个类VOCAnnotationTransform的作用,其定义如下。self.class_to_ind是一个map,其key是类别名称,value是编号,这个对象的作用是,读取xml时,能将对应的类别名称转换成label;在__call__()函数中,主要是xml读取的一些方式,值得一提的是,GT框的最表转换成了[0,1]之间,当图片尺寸变化了,GT框的坐标也能进行相应的变换。最后,res的每行由5个元素组成,分别是[x_min,y_min,x_max,y_max,label]。

    class VOCAnnotationTransform():
        '''
        获取xml里面的坐标值和label,并将坐标值转换成0到1
        '''
    
        def __init__(self, class_to_ind=None, keep_difficult=False):
            # 将类别名字转换成数字label
            self.class_to_ind = class_to_ind or dict(zip(VOC_CLASSES, range(len(VOC_CLASSES))))
            # 在xml里面,有个difficult的参数,这个表示特别难识别的目标,一般是小目标或者遮挡严重的目标
            # 因此,可以通过这个参数,忽略这些目标
            self.keep_difficult = keep_difficult
    
        def __call__(self, target, width, height):
            '''
            将一张图里面包含若干个目标,获取这些目标的坐标值,并转换成0到1,并得到其label
            :param target: xml格式
            :return: 返回List,每个目标对应一行,每行包括5个参数[xmin, ymin, xmax, ymax, label_ind]
            '''
            res = []
            for obj in target.iter('object'):
                difficult = int(obj.find('difficult').text) == 1  # 判断该目标是否为难例
                # 判断是否跳过难例
                if not self.keep_difficult and difficult:
                    continue
                name = obj.find('name').text.lower().strip()  # text是获得目标的名称,lower将字符转换成小写,strip去除前后空格
                bbox = obj.find('bndbox')  # 获得真实框坐标
    
                pts = ['xmin', 'ymin', 'xmax', 'ymax']
                bndbox = []
                for i, pt in enumerate(pts):
                    cur_pt = int(bbox.find(pt).text) - 1  # 获得坐标值
                    # 将坐标转换成[0,1],这样图片尺寸发生变化的时候,真实框也随之变化,即平移不变形
                    cur_pt = cur_pt / width if i % 2 == 0 else cur_pt / height
                    bndbox.append(cur_pt)
                label_idx = self.class_to_ind[name]  # 获得名字对应的label
                bndbox.append(label_idx)
                res.append(bndbox)  # [xmin, ymin, xmax, ymax, label_ind]
            return res  # [[xmin, ymin, xmax, ymax, label_ind], ... ]

    2.4 数据增强

    还有一个重要的函数,即函数SSDAugmentation(),该函数的作用是作数据增强。论文中也提及了,数据增强对最终的结果提升有着重大作用。博客1博客2具体讲述了数据增强的源码,讲得十分详细。在本项目中,SSDAugmentation()函数在data/augmentations.py中,如下所示。由于opencv读取读片的时候,取值范围是[0,255],是int类型,需要将其转换为float类型,计算其GT框的正式坐标。然后对图片进行光度变形,包含改变对比度,改变饱和度,改变色调、改变亮度和增加噪声等。接着有对图片进行扩张和裁剪等。在此操作中,会涉及到GT框坐标的变换。最后,当上述变化处理完后,再对GT框坐标归一化,和resize图片,减去均值等。具体细节,可以参考两篇博客进行解读。

    class SSDAugmentation(object):
        def __init__(self, size=300, mean=(104, 117, 123)):
            self.mean = mean
            self.size = size
            self.augment = Compose([
                ConvertFromInts(),  # 将图片从int转换成float
                ToAbsoluteCoords(),  # 计算真实的锚点框坐标
                PhotometricDistort(),  # 光度变形
                Expand(self.mean),  # 随机扩张图片
                RandomSampleCrop(),  # 随机裁剪
                RandomMirror(),  # 随机镜像
                ToPercentCoords(),
                Resize(self.size),
                SubtractMeans(self.mean)
            ])
    
        def __call__(self, img, boxes, labels):
            return self.augment(img, boxes, labels)

    2.5 辅助函数

    在一个batch中,每张图片的GT框数量是不等的,因此,需要定义一个函数来处理这种情况。函数detection_collate()就是用于处理这种情况,使得一张图片能对应一个list,这里list里面有所有GT框的信息组成。

    def detection_collate(batch):
        """Custom collate fn for dealing with batches of images that have a different
        number of associated object annotations (bounding boxes).
        自定义处理在同一个batch,含有不同数量的目标框的情况
    
        Arguments:
            batch: (tuple) A tuple of tensor images and lists of annotations
    
        Return:
            A tuple containing:
                1) (tensor) batch of images stacked on their 0 dim
                2) (list of tensors) annotations for a given image are stacked on
                                     0 dim
        """
        targets = []
        imgs = []
        for sample in batch:
            imgs.append(sample[0])
            targets.append(torch.FloatTensor(sample[1]))
        return torch.stack(imgs, 0), targets

    至此,已经将SSD的数据读取部分分析完。 

  • 相关阅读:
    条款33:避免遮掩继承而来的名称
    LeetCode OJ:Combinations (排列组合)
    LeetCode OJ:Delete Node in a Linked List(链表节点删除)
    LeetCode OJ:Contains Duplicate III(是否包含重复)
    LeetCode OJ:Contains DuplicateII(是否包含重复II)
    luogu 1004 方格取数
    平衡树之伸展树(Splay Tree)题目整理
    P2472 [SCOI2007]蜥蜴(网络最大流)
    P1349 广义斐波那契数列(矩阵加速)
    P4113 [HEOI2012]采花 (莫队TLE)
  • 原文地址:https://www.cnblogs.com/dengshunge/p/11908469.html
Copyright © 2020-2023  润新知