实战:keras 您所在的位置:网站首页 yolov1算法原理 实战:keras

实战:keras

2023-01-05 08:44| 来源: 网络整理| 查看: 265

 

 

 

在学习中发现快乐,在应用找到价值。这是我第八期分享图像技术应用的文章。

前七期欢迎阅读和分享:

第一期《扫描全能王?原来图像技术可以这样子玩》

第二期《来吧,见识科技的力量,无需手动找拍糊的图》

第三期《这种方式打开会ctrl的流量明星cxk,简直就是魔鬼》

第四期《酷炫骚操作,票圈装13神技,极坐标全景图》

第五期《用python和opencv检测图像中的条形码》

第六期《OpenCV测量物体的尺寸技能 get~》

第七期《还在用肉眼找不同吗?这个技术轻松搞定》

第八期《超详讲解图像拼接/全景图原理和应用 | 附源码》

 

概述

作者:https://github.com/mattzheng/keras-yolov3-KF-objectTracking

整理:AI算法与图像处理

今天给大家分享一个非常棒非常炫酷的github项目,基于yolov3+Kalman-Filter 的人体多目标跟踪算法。

先看一些效果图,先睹为快,亲测简单好用,大家可以基于这个项目进行优化。

实战:keras-yolov3 + Kalman-Filter 进行人体多目标追踪(含代码)_github

蓝色的框为检测到的人,每个框后面的线为移动轨迹。

实战:keras-yolov3 + Kalman-Filter 进行人体多目标追踪(含代码)_图像处理_02

原理大概就是 先定位到人,然后对人进行跟踪。

其中一种简单的多目标跟踪方式:detector+tracker,两者其实是相对独立的。

大致原理图如下所示:

实战:keras-yolov3 + Kalman-Filter 进行人体多目标追踪(含代码)_图像处理_03

这是原作者画的一个草图,这里的流程就是,图片经过detector,得到人体坐标框,然后计算中心点位置centers(x0,y0),将该centers(x0,y0)输入给追踪器,追踪器去学习(Update)并给出预测。

其中每一帧的图,tracker都会给出多条轨迹,每条轨迹都可能由若干个点组成。

 

新的一帧物体中心点centers给入之后,tracker与给出预测值prediction ,同时预测值与实际detections的距离去迭代匈牙利算法匹配(linear_sum_assignment)。

好处:可以任意组合比较好的detector/tracker算法

但是这一整套方法论有非常多的问题:

问题一:在刚刚检测到新人的时候,第一次轨迹预测的时候容易飘逸(如上面白色框所示)

问题二:

one-stage算法的缺陷是不够稳定,笔者本项目尝试的是keras-yolov3,在开阔场景没问题,但是在一切人密度较大,遮挡物较多,像素不够高清的视频上发现检测器容易遗漏物体,前两帧可以检测,后面几帧断了,然后又续上了。这个时候,detector都出现问题,tracker当然会出现loss丢失掉之前的物体。

 

一些网友也提出过很多解决方案:

(1)多帧融合;

(2)在第一帧有物体的时候就用快速跟踪的手段取代检测器,雷达与物体bbox匹配。

 

 

keras-yolov3 + kalman filter的一些微调

那先从该项目的KF算法Tracker开始,项目中预设了几个调节选项:

dist_thresh: distance threshold. When exceeds the threshold, track will be deleted and new track is created,距离阈值:超过阈值时,将删除轨迹并创建新轨迹

max_frames_to_skip: maximum allowed frames to be skipped forthe track object undetected,超过多少帧没有识别,就放弃该物体,未检测到的跟踪对象允许跳过的最大帧数,可以设置小一些

max_trace_lenght: trace path history length

trackIdCount: identification of each track object,每个跟踪对象的标识基数(在此之上累加)

实战:keras-yolov3 + Kalman-Filter 进行人体多目标追踪(含代码)_图像处理_04

来看看修复问题的点是,红框标出的,首次检测的飘逸轨迹,那么飘逸轨迹的特点是首尾两点距离较远,那么通过计算两个端点欧式距离,并通过设定阈值来屏蔽掉一些飘逸轨迹。一开始可能使用简单些的方法,诸如使用Harris Corners之类的算法提取关键点。然后,我们可以尝试根据欧几里德距离之类的相似度量来匹配相应的关键点。我们知道,角点(corner)有一个很好的属性:它们对旋转是不变的。 这意味着,一旦我们检测到一个角点,如果我们旋转图像,那个角点仍将存在。

 

 

keras-yolov3的detector微调

用keras-yolov3训练yolov3模型,该项目也是有预训练模型,但是分类有80分类,不仅仅是定位到人的。所以,简单的只挑出人物框,计算中心值给入tracker即可。当然,这里其他物体框还是保留的,只是对图像中的人物进行多目标跟踪。

 

详细代码和参考链接如下:  https://github.com/Smorodov/Multitarget-tracker https://github.com/srianant/kalman_filter_multi_object_tracking

 

 

注意点

如果仅对人体检测,只需修改 yolo_matt.py中的 第134行部分修改成如下内容即可:

  for i, c in reversed(list(enumerate(out_classes))): predicted_class = self.class_names[c]            # 修改内容,添加一个label的判断,只显示人 if predicted_class != 'person': continue box = out_boxes[i] score = out_scores[i]

 

 

推荐本文主要是因为首先作者的工作确实非常的棒(整体效果很棒),同时作者发现问题并解决问题的方法能给我们在日常工作和学习中一定的启发。

最后再次感谢原作者无私将自己的成果分享出来!

 

 


【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

    专题文章
      CopyRight 2018-2019 实验室设备网 版权所有