目标检测
概念
定位分类任务
单个目标
分类+定位多个目标
实例分割目标检测思路
回归问题
利用神经网络进行目标识别,同样的目标变为坐标值局部识别问题
框游走知道能百分百确定分类结果缺点
计算量大优点
精确生成候选位置
DPM
可变形的不同组件的模型概念
提取图像特征,制作出激励模板,在又是图像滑动计算,得到激励效果图,根据激励分布确定目标位置扩展
目标可能会形变,各个部分单独考虑过程
产生多个模板,整体模板以及不同局部模板不同模板同输入图片卷积产生特征图特征图组合形成融合特征对融合特征进行传统分类,得到目标位置优点
方法简单直观运算速度快适应运动物体变形缺点
性能一般激励特征人为设计,工作量大大幅度旋转无法适应,稳定性差
R-CNN
神经网络分类思想
对多个位置,不同尺寸,慵倦极神经网络判断区域内图片是不是某物候选位置提醋和方法
EdgeBox候选框进行SVM分类
步骤分类器的训练
直接用ImageNet模型Fine-Tune分类模型
选择20类进行探测21类
加上一类啥都不是特征提取
图片计算候选区域,候选区域切分土浦安,变成输入大小,提取响应高级特征,存储特征单独目标探测器训练
每一类单独训练每一类训练数据平衡每一类BBOX回归数据集
PASCAL评估方法
mAP
平均精度IoU
交补率优点
CNN用于目标探测,利用了CNN高校识别能力,大大提高了性能拜托认为设计物品模板,方法具有通用性分类+回归,为找到精确位置的可能缺点
为了检测一个目标,所有候选区域,大量卷积运算,非常慢SVM训练和CNN断裂,有效信息不饿能用于优化模型,不是端到端的每一类单独训练,异常繁琐
Fast-R-CNN
共享卷积
卷积计算保持空间位置共同区域的卷积计算只需进行一次切割候选区域+提取特征图=计算完整特征图+切割对应候选区特征一致化Max Pooling
特征变成统一大小位置+类别 联合学习
两个FC分别回归和分类速度快了精度提升不多
不考虑候选区域生成怎么解决候选区域的生成,也需要靠神经网络吗?RPN直接产生候选区域,无需额外生成直接用于后续特征图切割实现
在特征图上的卷积核有一个中间层,中间层可以分为两个部分
分类:
打分回归:
坐标范围生成k个候选区anchor详解
如果是VGG conv5作为特征图,3*3区域对应的原始图像区域?:
4个pooling,16倍anchor的平移不变怎么理解:
较小的平移pooling过程中忽略anchor同外接候选区区别:
数量1-2,数量级减小性能更高效速度:10倍anchor设计的借鉴意义:
神经网络有能力找到最终量,也有能力找到很多中间量只用anchor判断是不是目标,会不会存在大材小用,能判断更多吗训练
分布训练,太复杂更简单方法:
联合学习一个网络四个损失函数:
anchor是不是目标anchor回归候选区域回归Fast R-CNN分类Fast R-CNN基于侯选位置回归精度影响
无速度
算上生成候选图,速度提升十倍,可以算是实时交互
YoLo
直接找到是什么,在哪里图片分成7*7网络每个网格生成
b个Bbox4坐标+1信心N个类别分数回归目标
7*7*(5b+N)候选区域
b= 298个实时运行精度下降定位精度较差SSD
中间层特征参与位置、种类计算候选区98vs8732速度21:4666.4:74.3
完整训练 端到端
多目标学习