当前位置: 首页 > news >正文

自动驾驶目标检测项目实战——基于深度学习框架yolov的交通标志检测

自动驾驶目标检测项目实战——基于深度学习框架yolov的交通标志检测

目前目标检测算法有很多,流行的就有faster-rnn和yolov,本文使用了几年前的yolov3框架进行训练,效果还是很好,当然也可以使用更高版本的Yolov进行实战。本代码使用的是keras框架,pytorch的yolov如何对数据集进行训练,可以参考我之前的文章:
工业缺陷检测项目实战(二)——基于深度学习框架yolov5的钢铁表面缺陷检测

跑工程的原理步骤都是一样的,都可以学习。

数据集准备

使用gtsrb交通标志数据集,下载链接:
https://www.kaggle.com/datasets/meowmeowmeowmeowmeow/gtsrb-german-traffic-sign
https://aistudio.baidu.com/aistudio/datasetdetail/97069
以上两个链接都可以下载,文件夹里面是这样:
在这里插入图片描述
Meta没什么用,主要是Test和Train,Test作为验证集使用。

基础代码准备

本工程基于开源代码进行修改:
https://github.com/miemie2013/Keras-DIOU-YOLOv3

环境

tensorflow==1.15.1
keras==2.3.1

其他看着来,缺什么pip install什么。

使用步骤

1.将数据集放在工程文件夹
在这里插入图片描述
2.生成train和test的txt文件
我这里写了一个csv转txt的代码:
在这里插入图片描述
代码如下:

import numpy as np
import pickle
import re
import os
from PIL import Image# Create raw data pickle file
data_raw = {}
class_list = []
box_coords_list = []
image_file_list = []with open('GTSRB/Test.csv', 'r') as f:next(f) # skip header linefor line in f:  # 遍历每一行line = line[:-1]  # 去掉换行符fields = line.split(',')image_file = fields[7]class_list.append(int(fields[6]))image_file_list.append(image_file)# Find box coordinates for all signs in this imagebox_coords = np.array([int(x) for x in fields[2:6]])box_coords_list.append(box_coords)# 写入txt内容
with open("GTSRB/val.txt", 'w+', encoding='utf-8') as f:for i in range(len(box_coords_list)):box_coord = ""box_coord += str(box_coords_list[i][0]) + ','box_coord += str(box_coords_list[i][1]) + ','box_coord += str(box_coords_list[i][2]) + ','box_coord += str(box_coords_list[i][3])d = image_file_list[i] + ' ' + box_coord + ',' + str(class_list[i])f.write(d + '\n')

路径根据自己的去修改即可。生成的txt放在annotation文件夹下。
在这里插入图片描述
txt文件格式如下:

xxx/xxx.jpg 18.19,6.32,424.13,421.83,20 323.86,2.65,640.0,421.94,20 
xxx/xxx.jpg 48,240,195,371,11 8,12,352,498,14
# image_path x_min, y_min, x_max, y_max, class_id  x_min, y_min ,..., class_id 
# make sure that x_max < width and y_max < height

3.生成标签的类别txt文件
在data文件夹下,生成txt的文件来表示类名:
在这里插入图片描述
比如这里有43个类,则我们可以先用数字字符表示,等检测完再转回对于的类名:
在这里插入图片描述
一行表示一个类名,注意此处类名不能有空格,比如以下是错误的例子:
在这里插入图片描述
每一行都存在空格,这样在计算mAP的时候会报错。

数据已准备完毕。

4.修改文件路径
主要是修改train.py文件里面的这三个路径:
在这里插入图片描述
5.训练
运行

python train.py

在这里插入图片描述

6.注意
引用github源码大佬的话:

(1)本仓库有pattern=0、pattern=1、pattern=2这3种训练模式。 0-从头训练,1-读取model_body继续训练(包括解冻,但需要先运行1_lambda2model.py脚本取得model_body),2-读取coco预训练模型训练 你只需要修改pattern的值即可指定训练模式。 然后在这3种模式的if-else分支下,你再指定批大小batch_size、学习率lr等超参数。

(2)如果你决定从头训练一个模型(即pattern=0),而且你的显卡显存比较小,比如说只有6G。 又或者说你想训练一个小模型,因为你的数据集比较小。 那么你可以设置initial_filters为一个比较小的值,比如说8。 initial_filters会影响到后面的卷积层的卷积核个数(除了最后面3个卷积层的卷积核个数不受影响)。 yolov3的initial_filters默认是32,你调小initial_filters会使得模型变小,运算量减少,适合在小数据集上训练。

7.训练完之后,可以得到以下h5文件:
在这里插入图片描述
运行

python 1_lambda2model.py

将训练模型中yolov3的所有部分提取出来。我这里得到aaaa_bgr.h5
在这里插入图片描述
8.mAP评估
运行evaluate_kr.py对keras模型(1_lambda2model.py提取出来的模型)评估,跑完这个脚本后需要再跑mAP/main.py进行mAP的计算。计算完之后会保持结果图:
在这里插入图片描述
在这里插入图片描述

9.测试
在images/test里面放置要检测的图片:
在这里插入图片描述
运行

python demo_kr.py

比如识别:
在这里插入图片描述
识别结果:
在这里插入图片描述
在这里插入图片描述

另外,我添加了绘制acc和loss的曲线图,也对过滤了识别分数地的框。

需要整体代码的可私信我

http://www.lryc.cn/news/27296.html

相关文章:

  • flink兼容性验证
  • 智慧工厂数字孪生可视化监测系统有效提升厂区安全管控效力
  • c++中基本类型详细解释外加基本运算规则
  • 扬帆优配“机器人+”方案加码产业发展,这些股有望高增长
  • 推送投票制作微信推送里投票制作教程在线投票活动制作
  • 【架构师】跟我一起学架构——微服务分层监控
  • Linux:https静态网站搭建案例
  • 前端css整理
  • 混凝土搅拌站远程监控解决方案
  • Spark SQL 学习总结
  • 深度学习 - 37.TF x Keras Deep Cross Network DCN 实现
  • Ubuntu中使用Synaptic进行包管理
  • python之selenium库安装及用法(定位法、获取文本、文本框输入、鼠标点击、滑动滚动条)
  • FPGA纯verilog实现图像视频旋转 串口指令控制旋转角度 提供工程源码和技术支持
  • EventGraph:Event Extraction as Semantic Graph Parsing 论文解读
  • 【蓝桥杯集训·每日一题】AcWing 3696. 构造有向无环图
  • 国内vs国外:外贸建站该如何选择?
  • HLS协议有哪些特别优势
  • JavaScript里的回调函数属于闭包吗?
  • 编程基本概念
  • Azure OpenAI 官方指南02|ChatGPT 的架构设计与应用实例
  • RK3568核心板以太网大数据测试报告-万象奥科
  • 来 CSDN 三年,我写了一本Python书
  • TIA博途中通过SCL语言实现快速排序的具体方法示例
  • 第 46 届世界技能大赛浙江省选拔赛“网络安全“项目B模块任务书
  • 【C】字符串操作函数
  • 【python】 pytest自动化测试框架--selenium,requests,appium自动化工具
  • Spring boot 实战指南(三):配置事务,整合Elasticsearch、swagger、redis、rabbitMQ
  • 九、Bean的循环依赖问题
  • macOS关闭SIP后,仍无法修改/usr文件夹下文件