《DNK210使用指南 -CanMV版 V1.0》第四十一章 YOLO2物体检测试验
第四十一章 YOLO2物体检测试验
1)试验渠道:正点原子DNK210开发板
2)章节摘自【正点原子】DNK210运用指南 - CanMV版 V1.0
3)购买链接:https://detail.tmall.com/item.htm?&id=782801398750
4)全套试验源码+手册+视频下载地址:http://www.openedv.com/docs/boards/k210/ATK-DNK210.html
5)正点原子官方B站:https://space.bilibili.com/394620890
6)正点原子K210技术交流企鹅群:605557868
在上一章节中,介绍了运用maix.KPU模块完成YOLO2的人手检测,本章将持续介绍运用maix.KPU模块完成YOLO2的物体检测。经过本章的学习,读者将学习到YOLO2网络的物体检测应用在CanMV上的完成。
本章分为如下几个末节:
41.1 maix.KPU模块介绍
41.2 硬件规划
41.3 程序规划
41.4 运转验证
41.1 maix.KPU模块介绍
有关maix.KPU模块的介绍,请见第39.1末节《maix.KPU模块介绍》。
41.2 硬件规划
41.2.1 例程功用
- 获取摄像头输出的图画,并送入KPU进行YOLO2的物体检测模型运算,后将运算成果和摄像头输出的图画一同显现在LCD上。
41.2.2 硬件资源
本章试验内容,首要解说maix.KPU模块的运用,无需重视硬件资源。
41.2.3 原理图
本章试验内容,首要解说maix.KPU模块的运用,无需重视原理图。
41.3 程序规划
41.3.1 maix.KPU模块介绍
有关maix.KPU模块的介绍,请见第41.1末节《maix.KPU模块介绍》。
41.3.2 程序流程图
图41.3.2.1 YOLO2人手检测试验流程图
41.3.3 main.py代码
main.py中的脚本代码如下所示:
import lcd
import sensor
import image
import gc
from maix import KPU
lcd.init()
sensor.reset()
sensor.set_framesize(sensor.QVGA)
sensor.set_pixformat(sensor.RGB565)
sensor.set_hmirror(False)
resize_img = image.Image(size=(320, 256))
anchor = (1.3221, 1.73145, 3.19275, 4.00944, 5.05587, 8.09892, 9.47112, 4.84053, 11.2364, 10.0071)
names = ["aeroplane", "bicycle", "bird", "boat", "bottle", "bus", "car", "cat", "chair", "cow", "diningtable",
"dog", "horse", "motorbike", "person", "pottedplant", "sheep", "sofa", "train", "tvmonitor"]
# 结构KPU目标
object_detecter = KPU()
# 加载模型文件
object_detecter.load_kmodel("/sd/KPU/voc20_detect.kmodel")
# 初始化YOLO2网络
object_detecter.init_yolo2(anchor, anchor_num=len(anchor) // 2, img_w=320, img_h=240, net_w=320, net_h=256,
layer_w=10, layer_h=8, threshold=0.5, nms_value=0.2, classes=len(names))
while True:
img= sensor.snapshot()
resize_img.draw_image(img, 0, 0).pix_to_ai()
# 进行KPU运算
object_detecter.run_with_output(resize_img)
# 进行YOLO2运算
objects = object_detecter.regionlayer_yolo2()
for object in objects:
img.draw_rectangle(object[0], object[1], object[2], object[3], color=(0, 255, 0))
img.draw_string(object[0] + 2, object[1] + 2, "%.2f" % (object[5]), color=(0, 255, 0))
img.draw_string(object[0] + 2, object[1] + 10, names[object[4]], color=(0, 255, 0))
lcd.display(img)
gc.collect()
能够看到一开端是先初始化了LCD和摄像头。
接着是结构一个KPU目标,并从文件体系中加载YOLO2人手检测网络需求用到的网络模型,并初始化YOLO2网络。
然后就是在一个循环中不断地获取摄像头输出的图画,因为网络需求的图画尺度与摄像头直接输出的图画尺度不一致,因而将其复制到网络需求的图画尺度的图画上,再并将其送入KPU中进行运算,然后再进行YOLO2网络运算,最终便得到网络识别出物体在输入图画上的一些信息,将这些信息制作到图画上后,在LCD上显现图画。
41.4 运转验证
将DNK210开发板衔接CanMV IDE,点击CanMV IDE上的“开端(运转脚本)”按钮后,将摄像头对准物体,让其收集到物体图画,随后便能在LCD上看到摄像头输出的图画,一起图画中的物体均被绿色的矩形框框出,并在矩形框内的左上角标出了物体的称号和置信度,如下图所示:
图41.4.1 LCD显现YOLO2物体检测成果