程序地带

yolov5实战之皮卡丘检测


前言

从接触深度学习开始一直都做的是人脸识别,基本上也一直都在用mxnet. 记得之前在刚接触的时候看到博客中写到,深度学习分三个层次,第一个层次是分类,第二个层次是检测,第三个层次是分割。人脸识别算是分类问题,也就是一直在第一个层次···一直都想有机会了解下第二个层次,奈何精力有限,工作中也没有实际的项目需要。最近正好有个不急的检测项目,趁此机会入门检测吧。工作中听同事提到yolov5效果不错,而且文档指导也比较丰富,因此选择从此入手,顺便也熟悉下pytorch。本文就以训练一个简单的皮卡丘检测作为入门吧,也激发下对检测的学习兴趣,暂时不涉及网络,anchor等细节的理解,只以训练完为目标。


环境准备

安装torch这些就不说了,本次训练基于yolov5官方项目:
https://github.com/ultralytics/yolov5
clone后,pip install -r requirements.txt安装各项依赖
基本的目录结构如下:
data: 训练数据和数据配置文件以及训练配置
models: 模型配置文件
utils: 数据读取、nms等各种训练测试中用到的脚本
weight:
train.py: 训练脚本
test.py:测试脚本
detect.py: 运行脚本


数据集准备

https://github.com/ultralytics/yolov5/wiki/Train-Custom-Data
根据官方指导,按需要的格式准备数据集:


一个图片文件对应一个同名的.txt label文件
label文件中每一行表示一个目标,格式为:class x_center y_center box_width box_height, 其中数值都是归一化的。类别从0开始
按类似目录方式防止数据,yolov5通过将图片路径中最后一个images换成labels去寻找对应的标签
coco/images/000000109622.jpg # image
coco/labels/000000109622.txt # label

本文中用的数据来源于 目标检测数据集(皮卡丘) 中,但原文是mxnet用的rec格式,因此需要转换成yolo格式。我已经转好了:
链接: 百度网盘数据集 提取码: rek1
下载后解压即可得到符合格式要求的数据。
数据示例:


image


训练前的配置
修改或新建dataset.yaml

在data目录下,我们可以看到一个coco.yaml,内容如下:


# COCO 2017 dataset http://cocodataset.org - first 128 training images
# Train command: python train.py --data coco128.yaml
# Default dataset location is next to /yolov5:
# /parent_folder
# /coco128
# /yolov5
# download command/URL (optional)
# download: https://github.com/ultralytics/yolov5/releases/download/v1.0/coco128.zip
# train and val data as 1) directory: path/images/, 2) file: path/images.txt, or 3) list: [path1/images/, path2/images/]
train: ./data/coco128/images/train2017/ # 训练集图片路径
val: ./data/coco128/images/train2017/ # 验证集图片路径
# number of classes,类别数
nc: 80
# class names,类别名
names: ["person", "bicycle", "car", "motorcycle", "airplane", "bus", "train", "truck", "boat", "traffic light",
"fire hydrant", "stop sign", "parking meter", "bench", "bird", "cat", "dog", "horse", "sheep", "cow",
"elephant", "bear", "zebra", "giraffe", "backpack", "umbrella", "handbag", "tie", "suitcase", "frisbee",
"skis", "snowboard", "sports ball", "kite", "baseball bat", "baseball glove", "skateboard", "surfboard",
"tennis racket", "bottle", "wine glass", "cup", "fork", "knife", "spoon", "bowl", "banana", "apple",
"sandwich", "orange", "broccoli", "carrot", "hot dog", "pizza", "donut", "cake", "chair", "couch",
"potted plant", "bed", "dining table", "toilet", "tv", "laptop", "mouse", "remote", "keyboard", "cell phone",
"microwave", "oven", "toaster", "sink", "refrigerator", "book", "clock", "vase", "scissors", "teddy bear",
"hair drier", "toothbrush"]

仿照这个格式,建立皮卡丘数据集的配置文件:


# COCO 2017 dataset http://cocodataset.org - first 128 training images
# Train command: python train.py --data coco128.yaml
# Default dataset location is next to /yolov5:
# /parent_folder
# /coco128
# /yolov5
# download command/URL (optional)
# download: https://github.com/ultralytics/yolov5/releases/download/v1.0/coco128.zip
# train and val data as 1) directory: path/images/, 2) file: path/images.txt, or 3) list: [path1/images/, path2/images/]
train: ./data/pikachu/images/train/ # 128 images
val: ./data/pikachu/images/val/ # 128 images
# number of classes
nc: 1
# class names
names: ["pikachu"]
训练参数配置

训练参数配置在data/hyp.finetune.yaml和hyp.scratch.yaml中,前者是finetune用的,后者是从头训练的。这次我们直接用hyp.finetune.yaml,先不做修改。


模型配置

模型配置在models/yolov5s.yaml中。目前也不做修改。


开始训练

训练使用train.py脚本,主要参数有:


--weights 预训练权重,“”表示从头训
--cfg 模型配置文件路径
--data 数据配置文件路径
--hyp 训练参数配置文件路径
--epochs 训练的epoch数
--batch-size
--img-size 网络的输入大小
--noautoanchor 是否自动计算anchor
--device 设备号
--workers dataloader线程数

还有很多其他参数,不过暂时用不上就先不管了,执行以下命令可开始训练,脚本会自动去下载yolov5s的预训练权重进行训练。


python train.py --weights yolov5.pt --data data/pikachu.yaml --hyp data/hyp.finetune.yaml --epochs 40 --img-size 320 --device 0 --batch-size 512
可视化

yolov5里面有两种可视化方式,一种是tensorboard, 一种是wandb。
其中wandb有两种使用方式,一种是到https://wandb.ai/home注册一个账号,在线使用。注册后新建项目,名字叫yolov5,然后本地安装配置wandb, 按提示输入必要的信息(API Key):


pip install wandb
wandb login

那么训练时就可以在自己的项目中看到如下画面,还是挺不错的,功能挺丰富:
image
不过这个网站挺卡的,好在wandb也有本地使用方式。


安装docker后
wandb local

参考:https://docs.wandb.ai/self-hosted/local
然后就可以本地访问了。


测试

有两个脚本和测试有关,test.py是用来跑测试集测性能的,detect.py是用来测试文件夹或摄像头的。


python detect.py --source data/images --weights yolov5s.pt --conf-thres 0.25

在run/detect下即可找到图像画有目标框的图像(也可以在执行detect.py的时候指定--view-img选项,即可显示图像):
image


结语

至此就训练出了一个简单的检测模型呢,虽然很简单,不过基本流程通了。在走通流程后就要继续了解实现的细节,如何调参等等了。可以从了解网络结构开始,可参考 [https://zhuanlan.zhihu.com/p/343195876](https://zhuanlan.zhihu.com/p/343195876


注:如果数据集链接过期了,关注 老司机的视觉屋,回复pikachu即可获取链接


版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://www.cnblogs.com/haoliuhust/p/14275240.html

随机推荐

关键字_类型修饰符_8

关键字_类型修饰符资源分类:有些内存是可读的有些是可写的,我们一般定义的chara,就是autochara,就是自动变量,所谓普通变量就是在内存...

虔诚的仰望者 阅读(690)

多点温度检测上位机显示_XMT-124智能数字显示报警仪-老友网

XMT-124智能数字显示报警仪智能调节仪可与各类传感器、变送器配合使用,实现对温度、压力、液位、容量、速度等物理量的测量显示,并配合各种执行器对电加热设备和电磁、电动阀进行PID调节和控制、报警控制...

技术译民 阅读(127)

ai训练 样本大小_可解释的ai-综述

可解释ai的背景可解释ai定义?解释机器作出决策的原因,研究ai的可解释性有何意义?主要是提升用户体验,其他方向如:检查训练好的模...

e签宝电子合同 阅读(538)

k8s-liveness和readness详解

k8s-liveness和readness详解

最近因为查找问题,看了一些k8s的liveness和readiness配置,这两种都是k8s探针用于健康检测的,是k8s很重要的一个特性,在此记...

蜗牛编程记 阅读(394)