• YOLO V4的模型训练


    1、YOLO V4模型训练的基本思路

      所有机器学习涉及模型训练,一般都有训练集、验证集、测试集,因此需要准备数据集。有了数据集,再调用训练的算法,获取训练的结果。v3、v4模型训练方法相同。

     

    2、YOLO V4模型训练的体验

      利用已有数据,体验一下模型训练的各个步骤。

      网址:https://pjreddie.com/darknet/yolo/给出了模型训练的方法。

     

    2.1、YOLO模型训练的数据集格式

      YOLO训练所要求的数据格式是PASCAL VOC或者COCO等标准数据集格式。

      darknetuilddarknetx64datavoc目录下,有一个voc_label.py文件,用于数据转换。涉及的数据集的格式为PASCAL VOC格式。

      关于PASCAL VOC格式的介绍,参见:

     

      关于Annotations的xml文件中,图像size的depth属性,含义为通道数,RGB图像,值为3。参见:https://blog.csdn.net/qq_18343569/article/details/47830503

     

    2.2、构造VOC目录结构

      按照上面引用网文的说法,构造基本的目录结构:Annotations、JPEGImages以及ImageSets/Main。

      我这边正好搞到了VOC2012的训练/验证的数据集。

      如果要下载,地址:https://pjreddie.com/projects/pascal-voc-dataset-mirror/,文件都点大。

      先将VOC2012数据集复制到darknetuilddarknetx64datavoc目录下,结构如下:

    darknetuilddarknetx64datavocVOCdevkit
    darknetuilddarknetx64datavocVOCdevkitVOC2012
    darknetuilddarknetx64datavocVOCdevkitVOC2012...
    ...

     

    2.3、执行voc_label.py文件

      voc_label.py文件的解析,可参考:《YOLO_DarkNet_解析之旅_voc_label.py的解析》(https://blog.csdn.net/Willen/article/details/83868164)。

      由于我使用VOC2012数据集,没有VOC2007,ImageSets/Main中,只有train,val和trainval文件,因此,需要修改voc_label.py文件。

    #line7 修改
    sets=[('2012', 'train'), ('2012', 'val'), ('2007', 'train'), ('2007', 'val'), ('2007', 'test')]
    #==>
    sets=[('2012', 'train'), ('2012', 'val'),('2012', 'trainval')]

      #否则,报错:

    FileNotFoundError: [Errno 2] No such file or directory: 'VOCdevkit/VOC2007/ImageSets/Main/train.txt'

     

      然后,执行voc_label.py文件,在AnaConda环境下,执行下列语句:

    (tensorflow) E:workspacedarknetuilddarknetx64datavoc>python voc_label.py

      获取下列文件:

    darknetuilddarknetx64datavoc2012_train.txt
    darknetuilddarknetx64datavoc2012_val.txt
    darknetuilddarknetx64datavoc2012_trainval.txt
    darknetuilddarknetx64datavocVOCdevkitVOC2012labels目录及文件

     

    2.4、模型训练

      首先,修改darknet/build/darknet/x64/data中的voc.data。修改train和valid这两行的数据文件路径。

    classes= 20
    train = data/voc/2012_train.txt
    valid = data/voc/2012_val.txt
    #difficult = data/difficult_2007_test.txt
    names = data/voc.names
    backup = backup/

      然后执行下列语句:

    darknet.exe detector train data/voc.data cfg/yolov4.cfg yolov4.weights

      最后一个参数为预训练权重文件,应该使用只包含卷积层的预训练权重文件,下载地址:https://pjreddie.com/media/files/darknet53.conv.74

      我这里担心训练时间过长,偷懒了,直接用yolov4.weights。

     

      运行结果如下:

    E:workspacedarknetuilddarknetx64>darknet.exe detector train data/voc.data cfg/yolov4.cfg yolov4.weights
    GPU isn't used
    Used AVX
    Used FMA & AVX2
    OpenCV version: 4.2.0
    yolov4
    mini_batch = 8, batch = 64, time_steps = 1, train = 1
      layer   filters size/strd(dil)     input               output
      0 conv     32       3 x 3/ 1   608 x 608 x   3 -> 608 x 608 x 32 0.639 BF
      1 conv     64       3 x 3/ 2   608 x 608 x 32 -> 304 x 304 x 64 3.407 BF
      2 conv     64       1 x 1/ 1   304 x 304 x 64 -> 304 x 304 x 64 0.757 BF
      3 route 1                                     -> 304 x 304 x 64
      4 conv     64       1 x 1/ 1   304 x 304 x 64 -> 304 x 304 x 64 0.757 BF
      5 conv     32       1 x 1/ 1   304 x 304 x 64 -> 304 x 304 x 32 0.379 BF
      6 conv     64       3 x 3/ 1   304 x 304 x 32 -> 304 x 304 x 64 3.407 BF
      7 Shortcut Layer: 4, wt = 0, wn = 0, outputs: 304 x 304 x 64 0.006 BF
      8 conv     64       1 x 1/ 1   304 x 304 x 64 -> 304 x 304 x 64 0.757 BF
      9 route 8 2                                   -> 304 x 304 x 128
    10 conv     64       1 x 1/ 1   304 x 304 x 128 -> 304 x 304 x 64 1.514 BF
    11 conv   128       3 x 3/ 2   304 x 304 x 64 -> 152 x 152 x 128 3.407 BF
    12 conv     64       1 x 1/ 1   152 x 152 x 128 -> 152 x 152 x 64 0.379 BF
    13 route 11                                     -> 152 x 152 x 128
    14 conv     64       1 x 1/ 1   152 x 152 x 128 -> 152 x 152 x 64 0.379 BF
    15 conv     64       1 x 1/ 1   152 x 152 x 64 -> 152 x 152 x 64 0.189 BF
    16 conv     64       3 x 3/ 1   152 x 152 x 64 -> 152 x 152 x 64 1.703 BF
    17 Shortcut Layer: 14, wt = 0, wn = 0, outputs: 152 x 152 x 64 0.001 BF
    18 conv     64       1 x 1/ 1   152 x 152 x 64 -> 152 x 152 x 64 0.189 BF
    19 conv     64       3 x 3/ 1   152 x 152 x 64 -> 152 x 152 x 64 1.703 BF
    20 Shortcut Layer: 17, wt = 0, wn = 0, outputs: 152 x 152 x 64 0.001 BF
    21 conv     64       1 x 1/ 1   152 x 152 x 64 -> 152 x 152 x 64 0.189 BF
    22 route 21 12                                 -> 152 x 152 x 128
    23 conv   128       1 x 1/ 1   152 x 152 x 128 -> 152 x 152 x 128 0.757 BF
    24 conv   256       3 x 3/ 2   152 x 152 x 128 ->   76 x 76 x 256 3.407 BF
    25 conv   128       1 x 1/ 1     76 x 76 x 256 ->   76 x 76 x 128 0.379 BF
    26 route 24                                     ->   76 x 76 x 256
    27 conv   128       1 x 1/ 1     76 x 76 x 256 ->   76 x 76 x 128 0.379 BF
    28 conv   128       1 x 1/ 1     76 x 76 x 128 ->   76 x 76 x 128 0.189 BF
    29 conv   128       3 x 3/ 1     76 x 76 x 128 ->   76 x 76 x 128 1.703 BF
    30 Shortcut Layer: 27, wt = 0, wn = 0, outputs: 76 x 76 x 128 0.001 BF
    31 conv   128       1 x 1/ 1     76 x 76 x 128 ->   76 x 76 x 128 0.189 BF
    32 conv   128       3 x 3/ 1     76 x 76 x 128 ->   76 x 76 x 128 1.703 BF
    33 Shortcut Layer: 30, wt = 0, wn = 0, outputs: 76 x 76 x 128 0.001 BF
    34 conv   128       1 x 1/ 1     76 x 76 x 128 ->   76 x 76 x 128 0.189 BF
    35 conv   128       3 x 3/ 1     76 x 76 x 128 ->   76 x 76 x 128 1.703 BF
    36 Shortcut Layer: 33, wt = 0, wn = 0, outputs: 76 x 76 x 128 0.001 BF
    37 conv   128       1 x 1/ 1     76 x 76 x 128 ->   76 x 76 x 128 0.189 BF
    38 conv   128       3 x 3/ 1     76 x 76 x 128 ->   76 x 76 x 128 1.703 BF
    39 Shortcut Layer: 36, wt = 0, wn = 0, outputs: 76 x 76 x 128 0.001 BF
    40 conv   128       1 x 1/ 1     76 x 76 x 128 ->   76 x 76 x 128 0.189 BF
    41 conv   128       3 x 3/ 1     76 x 76 x 128 ->   76 x 76 x 128 1.703 BF
    42 Shortcut Layer: 39, wt = 0, wn = 0, outputs: 76 x 76 x 128 0.001 BF
    43 conv   128       1 x 1/ 1     76 x 76 x 128 ->   76 x 76 x 128 0.189 BF
    44 conv   128       3 x 3/ 1     76 x 76 x 128 ->   76 x 76 x 128 1.703 BF
    45 Shortcut Layer: 42, wt = 0, wn = 0, outputs: 76 x 76 x 128 0.001 BF
    46 conv   128       1 x 1/ 1     76 x 76 x 128 ->   76 x 76 x 128 0.189 BF
    47 conv   128       3 x 3/ 1     76 x 76 x 128 ->   76 x 76 x 128 1.703 BF
    48 Shortcut Layer: 45, wt = 0, wn = 0, outputs: 76 x 76 x 128 0.001 BF
    49 conv   128       1 x 1/ 1     76 x 76 x 128 ->   76 x 76 x 128 0.189 BF
    50 conv   128       3 x 3/ 1     76 x 76 x 128 ->   76 x 76 x 128 1.703 BF
    51 Shortcut Layer: 48, wt = 0, wn = 0, outputs: 76 x 76 x 128 0.001 BF
    52 conv   128       1 x 1/ 1     76 x 76 x 128 ->   76 x 76 x 128 0.189 BF
    53 route 52 25                                 ->   76 x 76 x 256
    54 conv   256       1 x 1/ 1     76 x 76 x 256 ->   76 x 76 x 256 0.757 BF
    55 conv   512       3 x 3/ 2     76 x 76 x 256 ->   38 x 38 x 512 3.407 BF
    56 conv   256       1 x 1/ 1     38 x 38 x 512 ->   38 x 38 x 256 0.379 BF
    57 route 55                                     ->   38 x 38 x 512
    58 conv   256       1 x 1/ 1     38 x 38 x 512 ->   38 x 38 x 256 0.379 BF
    59 conv   256       1 x 1/ 1     38 x 38 x 256 ->   38 x 38 x 256 0.189 BF
    60 conv   256       3 x 3/ 1     38 x 38 x 256 ->   38 x 38 x 256 1.703 BF
    61 Shortcut Layer: 58, wt = 0, wn = 0, outputs: 38 x 38 x 256 0.000 BF
    62 conv   256       1 x 1/ 1     38 x 38 x 256 ->   38 x 38 x 256 0.189 BF
    63 conv   256       3 x 3/ 1     38 x 38 x 256 ->   38 x 38 x 256 1.703 BF
    64 Shortcut Layer: 61, wt = 0, wn = 0, outputs: 38 x 38 x 256 0.000 BF
    65 conv   256       1 x 1/ 1     38 x 38 x 256 ->   38 x 38 x 256 0.189 BF
    66 conv   256       3 x 3/ 1     38 x 38 x 256 ->   38 x 38 x 256 1.703 BF
    67 Shortcut Layer: 64, wt = 0, wn = 0, outputs: 38 x 38 x 256 0.000 BF
    68 conv   256       1 x 1/ 1     38 x 38 x 256 ->   38 x 38 x 256 0.189 BF
    69 conv   256       3 x 3/ 1     38 x 38 x 256 ->   38 x 38 x 256 1.703 BF
    70 Shortcut Layer: 67, wt = 0, wn = 0, outputs: 38 x 38 x 256 0.000 BF
    71 conv   256       1 x 1/ 1     38 x 38 x 256 ->   38 x 38 x 256 0.189 BF
    72 conv   256       3 x 3/ 1     38 x 38 x 256 ->   38 x 38 x 256 1.703 BF
    73 Shortcut Layer: 70, wt = 0, wn = 0, outputs: 38 x 38 x 256 0.000 BF
    74 conv   256       1 x 1/ 1     38 x 38 x 256 ->   38 x 38 x 256 0.189 BF
    75 conv   256       3 x 3/ 1     38 x 38 x 256 ->   38 x 38 x 256 1.703 BF
    76 Shortcut Layer: 73, wt = 0, wn = 0, outputs: 38 x 38 x 256 0.000 BF
    77 conv   256       1 x 1/ 1     38 x 38 x 256 ->   38 x 38 x 256 0.189 BF
    78 conv   256       3 x 3/ 1     38 x 38 x 256 ->   38 x 38 x 256 1.703 BF
    79 Shortcut Layer: 76, wt = 0, wn = 0, outputs: 38 x 38 x 256 0.000 BF
    80 conv   256       1 x 1/ 1     38 x 38 x 256 ->   38 x 38 x 256 0.189 BF
    81 conv   256       3 x 3/ 1     38 x 38 x 256 ->   38 x 38 x 256 1.703 BF
    82 Shortcut Layer: 79, wt = 0, wn = 0, outputs: 38 x 38 x 256 0.000 BF
    83 conv   256       1 x 1/ 1     38 x 38 x 256 ->   38 x 38 x 256 0.189 BF
    84 route 83 56                                 ->   38 x 38 x 512
    85 conv   512       1 x 1/ 1     38 x 38 x 512 ->   38 x 38 x 512 0.757 BF
    86 conv   1024       3 x 3/ 2     38 x 38 x 512 ->   19 x 19 x1024 3.407 BF
    87 conv   512       1 x 1/ 1     19 x 19 x1024 ->   19 x 19 x 512 0.379 BF
    88 route 86                                     ->   19 x 19 x1024
    89 conv   512       1 x 1/ 1     19 x 19 x1024 ->   19 x 19 x 512 0.379 BF
    90 conv   512       1 x 1/ 1     19 x 19 x 512 ->   19 x 19 x 512 0.189 BF
    91 conv   512       3 x 3/ 1     19 x 19 x 512 ->   19 x 19 x 512 1.703 BF
    92 Shortcut Layer: 89, wt = 0, wn = 0, outputs: 19 x 19 x 512 0.000 BF
    93 conv   512       1 x 1/ 1     19 x 19 x 512 ->   19 x 19 x 512 0.189 BF
    94 conv   512       3 x 3/ 1     19 x 19 x 512 ->   19 x 19 x 512 1.703 BF
    95 Shortcut Layer: 92, wt = 0, wn = 0, outputs: 19 x 19 x 512 0.000 BF
    96 conv   512       1 x 1/ 1     19 x 19 x 512 ->   19 x 19 x 512 0.189 BF
    97 conv   512       3 x 3/ 1     19 x 19 x 512 ->   19 x 19 x 512 1.703 BF
    98 Shortcut Layer: 95, wt = 0, wn = 0, outputs: 19 x 19 x 512 0.000 BF
    99 conv   512       1 x 1/ 1     19 x 19 x 512 ->   19 x 19 x 512 0.189 BF
    100 conv   512       3 x 3/ 1     19 x 19 x 512 ->   19 x 19 x 512 1.703 BF
    101 Shortcut Layer: 98, wt = 0, wn = 0, outputs: 19 x 19 x 512 0.000 BF
    102 conv   512       1 x 1/ 1     19 x 19 x 512 ->   19 x 19 x 512 0.189 BF
    103 route 102 87                                 ->   19 x 19 x1024
    104 conv   1024       1 x 1/ 1     19 x 19 x1024 ->   19 x 19 x1024 0.757 BF
    105 conv   512       1 x 1/ 1     19 x 19 x1024 ->   19 x 19 x 512 0.379 BF
    106 conv   1024       3 x 3/ 1     19 x 19 x 512 ->   19 x 19 x1024 3.407 BF
    107 conv   512       1 x 1/ 1     19 x 19 x1024 ->   19 x 19 x 512 0.379 BF
    108 max               5x 5/ 1     19 x 19 x 512 ->   19 x 19 x 512 0.005 BF
    109 route 107                                           ->   19 x 19 x 512
    110 max               9x 9/ 1     19 x 19 x 512 ->   19 x 19 x 512 0.015 BF
    111 route 107                                           ->   19 x 19 x 512
    112 max               13x13/ 1     19 x 19 x 512 ->   19 x 19 x 512 0.031 BF
    113 route 112 110 108 107                       ->   19 x 19 x2048
    114 conv   512       1 x 1/ 1     19 x 19 x2048 ->   19 x 19 x 512 0.757 BF
    115 conv   1024       3 x 3/ 1     19 x 19 x 512 ->   19 x 19 x1024 3.407 BF
    116 conv   512       1 x 1/ 1     19 x 19 x1024 ->   19 x 19 x 512 0.379 BF
    117 conv   256       1 x 1/ 1     19 x 19 x 512 ->   19 x 19 x 256 0.095 BF
    118 upsample                 2x   19 x 19 x 256 ->   38 x 38 x 256
    119 route 85                                     ->   38 x 38 x 512
    120 conv   256       1 x 1/ 1     38 x 38 x 512 ->   38 x 38 x 256 0.379 BF
    121 route 120 118                               ->   38 x 38 x 512
    122 conv   256       1 x 1/ 1     38 x 38 x 512 ->   38 x 38 x 256 0.379 BF
    123 conv   512       3 x 3/ 1     38 x 38 x 256 ->   38 x 38 x 512 3.407 BF
    124 conv   256       1 x 1/ 1     38 x 38 x 512 ->   38 x 38 x 256 0.379 BF
    125 conv   512       3 x 3/ 1     38 x 38 x 256 ->   38 x 38 x 512 3.407 BF
    126 conv   256       1 x 1/ 1     38 x 38 x 512 ->   38 x 38 x 256 0.379 BF
    127 conv   128       1 x 1/ 1     38 x 38 x 256 ->   38 x 38 x 128 0.095 BF
    128 upsample                 2x   38 x 38 x 128 ->   76 x 76 x 128
    129 route 54                                     ->   76 x 76 x 256
    130 conv   128       1 x 1/ 1     76 x 76 x 256 ->   76 x 76 x 128 0.379 BF
    131 route 130 128                               ->   76 x 76 x 256
    132 conv   128       1 x 1/ 1     76 x 76 x 256 ->   76 x 76 x 128 0.379 BF
    133 conv   256       3 x 3/ 1     76 x 76 x 128 ->   76 x 76 x 256 3.407 BF
    134 conv   128       1 x 1/ 1     76 x 76 x 256 ->   76 x 76 x 128 0.379 BF
    135 conv   256       3 x 3/ 1     76 x 76 x 128 ->   76 x 76 x 256 3.407 BF
    136 conv   128       1 x 1/ 1     76 x 76 x 256 ->   76 x 76 x 128 0.379 BF
    137 conv   256       3 x 3/ 1     76 x 76 x 128 ->   76 x 76 x 256 3.407 BF
    138 conv   255       1 x 1/ 1     76 x 76 x 256 ->   76 x 76 x 255 0.754 BF
    139 yolo
    [yolo] params: iou loss: ciou (4), iou_norm: 0.07, cls_norm: 1.00, scale_x_y: 1.20
    nms_kind: greedynms (1), beta = 0.600000
    140 route 136                                           ->   76 x 76 x 128
    141 conv   256       3 x 3/ 2     76 x 76 x 128 ->   38 x 38 x 256 0.852 BF
    142 route 141 126                               ->   38 x 38 x 512
    143 conv   256       1 x 1/ 1     38 x 38 x 512 ->   38 x 38 x 256 0.379 BF
    144 conv   512       3 x 3/ 1     38 x 38 x 256 ->   38 x 38 x 512 3.407 BF
    145 conv   256       1 x 1/ 1     38 x 38 x 512 ->   38 x 38 x 256 0.379 BF
    146 conv   512       3 x 3/ 1     38 x 38 x 256 ->   38 x 38 x 512 3.407 BF
    147 conv   256       1 x 1/ 1     38 x 38 x 512 ->   38 x 38 x 256 0.379 BF
    148 conv   512       3 x 3/ 1     38 x 38 x 256 ->   38 x 38 x 512 3.407 BF
    149 conv   255       1 x 1/ 1     38 x 38 x 512 ->   38 x 38 x 255 0.377 BF
    150 yolo
    [yolo] params: iou loss: ciou (4), iou_norm: 0.07, cls_norm: 1.00, scale_x_y: 1.10
    nms_kind: greedynms (1), beta = 0.600000
    151 route 147                                           ->   38 x 38 x 256
    152 conv   512       3 x 3/ 2     38 x 38 x 256 ->   19 x 19 x 512 0.852 BF
    153 route 152 116                               ->   19 x 19 x1024
    154 conv   512       1 x 1/ 1     19 x 19 x1024 ->   19 x 19 x 512 0.379 BF
    155 conv   1024       3 x 3/ 1     19 x 19 x 512 ->   19 x 19 x1024 3.407 BF
    156 conv   512       1 x 1/ 1     19 x 19 x1024 ->   19 x 19 x 512 0.379 BF
    157 conv   1024       3 x 3/ 1     19 x 19 x 512 ->   19 x 19 x1024 3.407 BF
    158 conv   512       1 x 1/ 1     19 x 19 x1024 ->   19 x 19 x 512 0.379 BF
    159 conv   1024       3 x 3/ 1     19 x 19 x 512 ->   19 x 19 x1024 3.407 BF
    160 conv   255       1 x 1/ 1     19 x 19 x1024 ->   19 x 19 x 255 0.189 BF
    161 yolo
    [yolo] params: iou loss: ciou (4), iou_norm: 0.07, cls_norm: 1.00, scale_x_y: 1.05
    nms_kind: greedynms (1), beta = 0.600000
    Total BFLOPS 128.459
    avg_outputs = 1068395
    Loading weights from yolov4.weights...
    seen 64, trained: 32032 K-images (500 Kilo-batches_64)
    Done! Loaded 162 layers from weights-file
    Learning Rate: 0.0013, Momentum: 0.949, Decay: 0.0005
    If error occurs - run training with flag: -dont_show
    Saving weights to backup//yolov4_final.weights
    Create 6 permanent cpu-threads

     

      结果在darknetuilddarknetx64ackup目录,生成一个yolov4_final.weights。

      训练很快就完成了。这是因为初始权重文件yolov4.weights,已经是根据上述数据训练的,迭代终止条件立即满足。可以认为:yolov4_final.weights和yolov4.weights是相同的。

     

      至此,基本的模型训练体验完毕。下面的工作,是结合实际应用来实现自己的模型训练。

     

    3、训练自己的模型

    3.1、建立自己的VOC目录结构

      构造基本的VOC目录结构:Annotations、JPEGImages以及ImageSets/Main。

      为了简单起见,仍可使用voc_label.py文件,我按如下方式构造目录:

    #在VOCdevkit目录下创建VOC2020
    darknetuilddarknetx64datavocVOCdevkitVOC2020
    #创建三个基本子目录
    darknetuilddarknetx64datavocVOCdevkitVOC2020Annotations
    darknetuilddarknetx64datavocVOCdevkitVOC2020JPEGImages
    darknetuilddarknetx64datavocVOCdevkitVOC2020ImageSets
    #ImageSets目录再创建Main子目录
    darknetuilddarknetx64datavocVOCdevkitVOC2020ImageSetsMain

     

      (下列所有修改,应该先备份一下原文件)

     

      修改voc_label.py文件:

    sets=[('2020', 'train'), ('2020', 'val'),('2020', 'trainval'),('2020', 'test')]

     

      修改darknetuilddarknetx64data目录下的voc.data文件的对应行:

    train  = data/voc/2020_train.txt
    valid = data/voc/2020_val.txt

     

    3.2、设置自己的分类

      关于分类,网上资料显示,VOC数据集分类最大20个,COCO数据集最大80个,这个最大分类数可以调整为自己需要的数值,当然分类很多时,需要使用YOLO9000模型。

      参考了下列资料:

     

      假设自己的分类数为[n],则需要修改之处有:

      1)修改darknetuilddarknetx64datavoc.names

      将自己的[n]个分类标签输入,每个分类一行。

      2)修改darknetuilddarknetx64datavoc.data

    classes= 20 ==>  classes= [n]

      3)修改darknetuilddarknetx64cfgyolov4.cfg

    [yolo]标签下:
    classes=80 ==> classes= [n]

    [yolo]标签前面的一个[convolutional]标签:
    filters=255 ==> filters=([n]+5)*3

     

    3.3、标注自己的数据

      使用labelImg工具来进行标注工作,参见《windows下使用labelImg标注图像》(https://blog.csdn.net/python_pycharm/article/details/85338801)。

      这是一个费时的工作。

      图片放置在JPEGImages目录下,最好按编号命名。对应的labelImg生成的标注文件,放入Annotations目录下,命名与图片文件名一致。

      然后,生成ImageSets/Main下的文件。网上有makeTxt.py文件,生成train,val,test,trainval文件,参见:https://blog.csdn.net/public669/article/details/98020800)。

      但我发现这是相当于执行了voc_label.py后,生成的文件。暂时可以用这个方法。

      问题

      目前VOC2012/ImageSets/Main目录下的文件形式,是按类型分的。如car这个分类,有下列文件:

    car_train.txt
    car_val.txt
    car_trainval.txt

      考虑到后续处理的需要,需要一个新的处理python脚本。基本思路是:扫描分类文件voc.names,针对每一个分类,扫描Annotations中的文件,检测是否包含这个分类的对象,设置[flag]为1或-1,加入这个分类的list对象,最后再打散,生成各个分类的train,val,test,trainval文件。

     

    3.4、后续工作

      类似于2.3和2.4步,执行训练即可。我目前还没有开始具体应用分类试验,暂时先进行到此。

     

  • 相关阅读:
    openjudge666:放苹果—题解
    欢迎来到路由器的世界!这里是开端
    Codevs1169:传纸条——题解
    POJ3498:March of the Penguins——题解
    模板:并查集
    模板:快速幂
    模板:排序(三)
    程序员之间的鄙视链
    自动化测试的成本高效果差,那么自动化测试的意义在哪呢
    自动化测试的成本高效果差,那么自动化测试的意义在哪呢
  • 原文地址:https://www.cnblogs.com/alabo1999/p/13153999.html
Copyright © 2020-2023  润新知