致小白的K210模型训练与运用 | 您所在的位置:网站首页 › ai训练平台支持训练的模型后存储到哪儿去了呢怎么删除 › 致小白的K210模型训练与运用 |
致小白的K210模型训练与运用
文章目录
致小白的K210模型训练与运用
前言一、模型训练方法二、详细介绍1.使用MixHub平台进行训练2.使用Mx-yolov3自己搭建平台进行训练3.V3模型4.V4模型
前言
由于我也是刚接触K210不久,并且对python没有太多的了解,但是又想自己训练模型,于是花了挺多的时间在找寻简单的模型训练方法,本来是在几天前就找到了简单的模型训练方法,但是后来在使用的过程中出了点问题,直到今天才把问题勉强解决。所以写下本文来记录一下我所使用的K210模型训练方法,希望能给和我一样的小白一些帮助 提示:以下是本篇文章正文内容,下面案例可供参考 一、模型训练方法1.使用MixHub平台进行训练 2.使用Mx-yolov3自己搭建平台进行训练 二、详细介绍 1.使用MixHub平台进行训练详细方法可以看:MixHub训练使用说明 (1)数据集的准备 首先我们需要确定我们是要进行目标分类还是目标检测 目标分类是没有框的,只能识别该物体的种类,不能给出该物体的具体位置信息,效果如下 首先我们准备一个数据集文件夹,格式如下:
转换好之后会多出一个文件夹 首先得感谢袁运强老师制作的Mx-yolov3 软件获取方法import创客公众号回复Mx3 软件的详细介绍也可以看公众号里的文件,在这里我以我使用过程中的问题以及解释做一下说明 这里也以物体分类为例 首先我们将MX3下载下来 接着我们打开Mx-yolov3,找到图像识别 设置和0.1版本的一样,点击转换即可 V3模型,也就是之前用nncase 0.1版本转换出来的模型 首先找到自己训练的模型,将下图中的二个文件放在SD卡中 如果你是用nncase0.2的转换的,那么就是V4模型,V4模型出了上述步骤之外,还有二个地方做更改,一个是固件,固件要找一个支持V4版本的固件,固件可以在Sipeed 固件库找到 代码如下(): import sensor import math import machine import lcd import KPU as kpu sensor.reset() sensor.set_pixformat(sensor.RGB565) sensor.set_framesize(sensor.QVGA) sensor.run(1) sensor.skip_frames(10) sensor.set_windowing((224,224)) sensor.set_vflip(0) lcd.init(freq=15000000,color=0x0000) KPU = kpu.load('/sd/weights.kmodel') success = kpu.set_outputs(KPU,0,1,1,2) f=open("classes.txt","r") labels_txt=f.read() labels = labels_txt.split(",") f.close() while True: img = sensor.snapshot() plist = kpu.forward(KPU,img)[:] pmax = max(plist) max_index = plist.index(pmax) pgoods = labels[max_index] print("No.{} is {}".format(pgoods, pmax)) lcd.display(img) lcd.draw_string(48,224,"NO: {} {}{}".format(pgoods, round(pmax,2)*100,"%"),lcd.WHITE,lcd.GREEN)也就是加了一句success = kpu.set_outputs(KPU,0,1,1,2) 这一句的主要作用是设置输出层形状,具体的意思不大清楚,我试着参数像这样填是可以运行的 这一句的具体说明可以看KPU的说明 其他的步骤和V3的一致,将必要文件和boot.py放入SD卡中即可运行,但是效果是卡卡的和PPT一样 |
CopyRight 2018-2019 实验室设备网 版权所有 |