YoloV5實戰:手把手教物體檢測

語言: CN / TW / HK
摘要:​YOLOv5並不是一個單獨的模型,而是一個模型家族,包括了YOLOv5s、YOLOv5m、YOLO...

本文分享自華為雲社區《YoloV5實戰:手把手教物體檢測——YoloV5》,作者: AI浩 。

摘要

YOLOV5嚴格意義上説並不是YOLO的第五個版本,因為它並沒有得到YOLO之父Joe Redmon的認可,但是給出的測試數據總體表現還是不錯。詳細數據如下

YOLOv5並不是一個單獨的模型,而是一個模型家族,包括了YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x、YOLOv5x+TTA,這點有點兒像EfficientDet。由於沒有找到V5的論文,我們也只能從代碼去學習它。總體上和YOLOV4差不多,可以認為是YOLOV5的加強版。

項目地址:GitHub - ultralytics/yolov5: YOLOv5 🚀 in PyTorch > ONNX > CoreML > TFLite

訓練

1、下載代碼

項目地址:https://github.com/ultralytics/YOLOv5,最近作者又更新了一些代碼。

2、配置環境

matplotlib>=3.2.2

numpy>=1.18.5

opencv-python>=4.1.2

pillow

PyYAML>=5.3

scipy>=1.4.1

tensorboard>=2.2

torch>=1.6.0

torchvision>=0.7.0

tqdm>=4.41.0

3、準備數據集

數據集採用Labelme標註的數據格式,數據集從RSOD數據集中獲取了飛機和油桶兩類數據集,並將其轉為Labelme標註的數據集。

數據集的地址: https://pan.baidu.com/s/1iTUpvA9_cwx1qiH8zbRmDg

提取碼:gr6g

或者:LabelmeData.zip_yolov5實戰-深度學習文檔類資源-CSDN下載

將下載的數據集解壓後放到工程的根目錄。為下一步生成測試用的數據集做準備。如下圖:

4、生成數據集

YoloV5的數據集和以前版本的數據集並不相同,我們先看一下轉換後的數據集。

數據結構如下圖:

images文件夾存放train和val的圖片

labels裏面存放train和val的物體數據,裏面的每個txt文件和images裏面的圖片是一一對應的。

txt文件的內容如下:

格式:物體類別 x y w h

座標是不是真實的座標,是將座標除以寬高後的計算出來的,是相對於寬和高的比例。

下面我們編寫生成數據集的代碼,新建LabelmeToYoloV5.py,然後寫入下面的代碼。

import os

import numpy as np

import json

from glob import glob

import cv2

from sklearn.model_selection import train_test_split

from os import getcwd
classes = ["aircraft", "oiltank"]

# 1.標籤路徑

labelme_path = "LabelmeData/"

isUseTest = True  # 是否創建test集

# 3.獲取待處理文件

files = glob(labelme_path + "*.json")

files = [i.replace("\\", "/").split("/")[-1].split(".json")[0] for i in files]

print(files)

if isUseTest:

    trainval_files, test_files = train_test_split(files, test_size=0.1, random_state=55)

else:

    trainval_files = files

# split

train_files, val_files = train_test_split(trainval_files, test_size=0.1, random_state=55)
def convert(size, box):

    dw = 1. / (size[0])

    dh = 1. / (size[1])

    x = (box[0] + box[1]) / 2.0 - 1

    y = (box[2] + box[3]) / 2.0 - 1

    w = box[1] - box[0]

    h = box[3] - box[2]

    x = x * dw

    w = w * dw

    y = y * dh

    h = h * dh

    return (x, y, w, h)
wd = getcwd()

print(wd)
def ChangeToYolo5(files, txt_Name):

    if not os.path.exists('tmp/'):

        os.makedirs('tmp/')

    list_file = open('tmp/%s.txt' % (txt_Name), 'w')

    for json_file_ in files:

        json_filename = labelme_path + json_file_ + ".json"

        imagePath = labelme_path + json_file_ + ".jpg"

        list_file.write('%s/%s\n' % (wd, imagePath))

        out_file = open('%s/%s.txt' % (labelme_path, json_file_), 'w')

        json_file = json.load(open(json_filename, "r", encoding="utf-8"))

        height, width, channels = cv2.imread(labelme_path + json_file_ + ".jpg").shape

        for multi in json_file["shapes"]:

            points = np.array(multi["points"])

            xmin = min(points[:, 0]) if min(points[:, 0]) > 0 else 0

            xmax = max(points[:, 0]) if max(points[:, 0]) > 0 else 0

            ymin = min(points[:, 1]) if min(points[:, 1]) > 0 else 0

            ymax = max(points[:, 1]) if max(points[:, 1]) > 0 else 0

            label = multi["label"]

            if xmax <= xmin:

                pass

            elif ymax <= ymin:

                pass

            else:

                cls_id = classes.index(label)

                b = (float(xmin), float(xmax), float(ymin), float(ymax))

                bb = convert((width, height), b)

                out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')

                print(json_filename, xmin, ymin, xmax, ymax, cls_id)

ChangeToYolo5(train_files, "train")

ChangeToYolo5(val_files, "val")

ChangeToYolo5(test_files, "test")

這段代碼執行完成會在LabelmeData生成每個圖片的txt標註數據,同時在tmp文件夾下面生成訓練集、驗證集和測試集的txt,txt記錄的是圖片的路徑,為下一步生成YoloV5訓練和測試用的數據集做準備。在tmp文件夾下面新建MakeData.py文件,生成最終的結果,目錄結構如下圖:

打開MakeData.py,寫入下面的代碼。

import shutil
import os

file_List = ["train", "val", "test"]
for file in file_List:
    if not os.path.exists('../VOC/images/%s' % file):
        os.makedirs('../VOC/images/%s' % file)
    if not os.path.exists('../VOC/labels/%s' % file):
        os.makedirs('../VOC/labels/%s' % file)
    print(os.path.exists('../tmp/%s.txt' % file))
    f = open('../tmp/%s.txt' % file, 'r')
    lines = f.readlines()
    for line in lines:
        print(line)
        line = "/".join(line.split('/')[-5:]).strip()
        shutil.copy(line, "../VOC/images/%s" % file)
        line = line.replace('JPEGImages', 'labels')
        line = line.replace('jpg', 'txt')
        shutil.copy(line, "../VOC/labels/%s/" % file)

執行完成後就可以生成YoloV5訓練使用的數據集了。結果如下:

5、修改配置參數

打開voc.yaml文件,修改裏面的配置參數

train: VOC/images/train/  # 訓練集圖片的路徑

val: VOC/images/val/  # 驗證集圖片的路徑

# number of classes

nc: 2 #檢測的類別,本次數據集有兩個類別所以寫2
# class names

names: ["aircraft", "oiltank"]#類別的名稱,和轉換數據集時的list對應

6、修改train.py的參數

cfg參數是YoloV5 模型的配置文件,模型的文件存放在models文件夾下面,按照需求填寫不同的文件。

weights參數是YoloV5的預訓練模型,和cfg對應,例:cfg配置的是yolov5s.yaml,weights就要配置yolov5s.pt

data是配置數據集的配置文件,我們選用的是voc.yaml,所以配置data/voc.yaml

修改上面三個參數就可以開始訓練了,其他的參數根據自己的需求修改。修改後的參數配置如下:

parser.add_argument('--weights', type=str, default='yolov5s.pt', help='initial weights path')

parser.add_argument('--cfg', type=str, default='yolov5s.yaml', help='model.yaml path')

parser.add_argument('--data', type=str, default='data/voc.yaml', help='data.yaml path')

修改完成後,就可以開始訓練了。如下圖所示:

7、查看訓練結果

在經歷了300epoch訓練之後,我們會在runs文件夾下面找到訓練好的權重文件和訓練過程的一些文件。如圖:

測試

首先需要在voc.yaml中增加測試集的路徑,打開voc.yaml,在val字段後面增加test: tmp/test.txt這行代碼,如圖:

修改test.py中的參數,下面的這幾個參數要修改。

parser = argparse.ArgumentParser(prog='test.py')
parser.add_argument('--weights', nargs='+', type=str, default='runs/exp7/weights/best.pt', help='model.pt path(s)')
parser.add_argument('--data', type=str, default='data/voc.yaml', help='*.data path')
parser.add_argument('--batch-size', type=int, default=2, help='size of each image batch')
parser.add_argument('--save-txt', default='True', action='store_true', help='save results to *.txt')

在275行 修改test的方法,增加保存測試結果的路徑。這樣測試完成後就可以在inference\images查看到測試的圖片,在inference\output中查看到保存的測試結果。

如圖:

下面是運行的結果:

 

點擊關注,第一時間瞭解華為雲新鮮技術~