当前位置:首页> AI教程> RCNN算法: 目标检测领域的里程碑论文

RCNN算法: 目标检测领域的里程碑论文

释放双眼,带上耳机,听听看~!
RCNN算法发表在2014年CVPR的经典paper,首次提出使用卷积神经网络处理目标检测的问题。文章详细介绍了RCNN算法的流程和思想,包括区域提名、特征计算、分类算法等重要部分。同时还介绍了IoU和边框回归等重要概念。

1. 概述

RCNN(Region with CNN features)[1]算法发表在2014年CVPR的经典paper:《Rich feature hierarchies for Accurate Object Detection and Segmentation》中,这篇文章是目标检测领域的里程碑式的论文,首次提出使用卷积神经网络(Convolutional Neural Networks, CNNs)处理目标检测(Object Detetion)的问题。

2. 算法思想

2.1. RCNN算法流程

RCNN算法的流程图如下所示:

RCNN算法: 目标检测领域的里程碑论文

从图中可以看出,RCNN主要包括三个部分:

  • 区域提名(Region Proposal):使用到了Selective Search[2]的方法,通过Selective Search的方法产生约2000个目标可能出现的位置。在参考[3]中分别给出了C++和Python的实现;
  • 特征计算:特征计算阶段使用CNN算法,文章中使用AlexNet卷积神经网络,首先裁剪出上述2000个目标可能出现的位置的图像,并将其reshape成227×227227times 227,最后通过AlexNet进行特征计算,得到4096维的特征向量;
  • 分类算法:分类阶段是单独训练了SVM的分类器,对每一个类别训练一个二分类的分类器(yes/no)。

针对于候选区域的reshape过程,在参考[4]中做了详细的分析,如下图所示:

RCNN算法: 目标检测领域的里程碑论文

分析了三种的reshape方法,分别为:

  • tightest square with context
  • tightest square without context
  • warp

2.2. 几个重要的概念

2.2.1. IoU

IoU(Intersection-over-Union),即交并比。是目标检测中使用到的一个重要概念,是一种测量在特定数据集中检测相应物体准确度的一个标准。IoU表示的是预测的候选框(candidate bounding box)与原标记框(ground truth bounding box)的交叠率(或者重叠度),也就是它们的交集与并集的比值。相关度越高该值。最理想情况是完全重叠,即比值为1,如下图所示:

RCNN算法: 目标检测领域的里程碑论文

那么,IoU的计算公式为:

IoU=A∩BA∪BIoU=frac{Acap B}{Acup B}

2.2.2. 边框回归Bounding Box Regression

在RCNN中,使用边框回归的目的是提高检测位置的准确性。那么,Bounding Box Regression具体如何做呢?在参考[2]中给出了Bounding Box Regression的具体做法:假设数据集中有NN个训练数据{(Pi,Gi)}i=1,⋯ ,Nleft { left ( P^i,G^i right ) right }_{i=1,cdots ,N},其中PiP^i表示的是预测的边框,且Pi=(Pxi,Pyi,Pwi,Phi)P^i=left ( P_x^i,P_y^i,P_w^i,P_h^i right )xxyy表示的是边框中心点的坐标,wwhh表示的是边框的宽高。GiG^i表示的是实际的边框,其结构与PiP^i一致。我们的目标是寻找到一个映射ff,使得f(Pxi,Pyi,Pwi,Phi)=(G^xi,G^yi,G^wi,G^hi)fleft ( P_x^i,P_y^i,P_w^i,P_h^i right )=left ( hat{G}_x^i,hat{G}_y^i,hat{G}_w^i,hat{G}_h^i right ),同时(G^xi,G^yi,G^wi,G^hi)≈(Gxi,Gyi,Gwi,Ghi)left ( hat{G}_x^i,hat{G}_y^i,hat{G}_w^i,hat{G}_h^i right )approx left ( G_x^i,G_y^i,G_w^i,G_h^i right )

在RCNN中,边框回归是利用平移变换和尺度变换实现的。其中,平移变换为:

{G^x=Pwdx(P)+PxG^y=Phdy(P)+Pyleft{begin{matrix}
hat{G}_x=P_wd_xleft ( P right )+P_x\
hat{G}_y=P_hd_yleft ( P right )+P_y
end{matrix}right.

尺度变换为:

{G^w=Pwexp(dw(P))G^h=Phexp(dh(P))left{begin{matrix}
hat{G}_w=P_wexpleft ( d_wleft ( P right ) right )\
hat{G}_h=P_hexpleft ( d_hleft ( P right ) right )
end{matrix}right.

其中,d∗(P)d_{ast} left ( P right )可以建模成特征(在RCNN中为pool5pool_5,可以表示为ϕ5(P)phi _5left ( P right ))的线性函数,即:d∗(P)=w∗Tϕ5(P)d_{ast} left ( P right )=mathbf{w}^T_{ast} phi _5left ( P right ),我们需要学习到参数w∗mathbf{w}_{ast},可通过对求解如下的最小化问题,得到对应的解:

w∗=argminw^∗∑iN(t∗i−w^∗Tϕ5(Pi))2+λ∥w^∗∥2mathbf{w}_{ast}=underset{hat{mathbf{w}}_{ast}}{argmin}sum_{i}^{N}left ( t^i_{ast}-hat{mathbf{w}}^T_{ast}phi _5left ( P^i right ) right )^2+lambda left | hat{mathbf{w}}_{ast} right |^2

其中,目标t∗t_{ast}可以由上述的两个变换得到:

tx=(Gx−Px)/Pwty=(Gy−Py)/Phtw=log(Gw/Pw)th=log(Gh/Ph)begin{matrix}
t_x=left ( G_x-P_x right )/P_w\
t_y=left ( G_y-P_y right )/P_h\
t_w=logleft ( G_w/P_w right )\
t_h=logleft ( G_h/P_h right )
end{matrix}

2.2.3. 非极大抑制NMS

非极大抑制NMS(non maximum suppression),从其名称就可以看出,NMS想要做到的是找到局部的极大值,抑制非极大值,主要用于在图像检测中剔除掉检测出来的冗余的bbox。对于目标检测算法,最终我们会得到一系列的bbox以及对应的分类score,NMS所做的工作就是将同一个类别下的bbox按照分类score以及IoU阈值做筛选,剔除掉冗余的bbox,NMS的具体过程为:

  • 在算法得到一系列bbox后,按照类别划分;
  • 对于每一个分类,根据分类score对该类别下所有的bbox做降序排列,最终得到一个排好序的列表list_i;
  • 从列表list_i中取出最大score的bbox_x,并将其与list_i中所有其他的bbox_y计算IoU,若IoU大于某个阈值T,则剔除bbox_y,最终保留bbox_x;
  • 从剩余的list_i中重复上述的选择操作,直到list_i中的bbox都完成筛选;
  • 对其余的类别的列表重复上述两步的操作。

2.3. RCNN模型的训练

在模型训练之前,首先需要的是训练数据集,文章中使用的是VOC数据集,数据集中包含了20个类别的物体。RCNN模型的训练需要分为几个部分单独计算,按照上述流程,分为三个部分:

  • Region Proposal:对于训练集中的所有图像,使用selective search对每张图像提取出约2000个region proposal,将提取出的region proposal保存在本地。
  • AlexNet的特征计算:通常,CNN模型都会使用到预训练模型,同样,这里使用的AlexNet模型也是在ILSVRC 2012上预训练的模型。针对此处的训练数据集,需要对模型Fine-tuning。针对Fine-tuning过程中使用到的数据集,对于一个region proposal,如果其和图像上的所有ground truth中交并比IoU大于等于0.5,则该region proposal作为这个ground truth类别的正样本,否则作为负样本,此外。ground truth也作为正样本。因为VOC一共包含20个类别,另外还包括背景,所以这里region proposal的类别为21类。在此数据集上对CNN模型进行Fine-tuning。
  • 对于每一个类别训练SVM模型:利用CNN模型,对2000个region proposals提取特征,得到2000×40962000times 4096的特征,对于每一个类别训练一个SVM模型。此处的训练样本与特征计算过程中不一致,这里IoU<0.3的是负样本,Ground Truth是正样本。
  • 边界框回归:得到AlexNet的pool5pool_5特征和bounding box的ground truth来训练bounding box regression,只对那些跟ground truth的IoU超过某个阈值的proposal进行训练,其余的不参与,从而对proposal的边框修正。

2.4. RCNN模型推理

在推理阶段(测试阶段),对于一张待检测图片,主要分为以下几个部分:

  • 使用Selective Search提取出约2000个region proposals;
  • 将每一个region proposal缩放到AlexNet需要的大小,即227×227227times 227,通过AlexNet对每一个region proposal计算出4096维特征;
  • 对于每一个类,使用对应的SVM分类器计算出对应类别的概率,使用非极大值抑制(为每个类别单独调用),然后去掉一些与高分被选区域IoU大于阈值的候选框;
  • 利用边框回归对最终的边框修正;

3. 模型存在的问题

RCNN的提出对于目标检测领域来说是个里程碑式的进步,但是RCNN算法中存在许多的不足,从上述流程可以发现,可以发现:

  • 过程太多,而且较为分散,同时需要存储中间的计算结果(region proposals以及每一个region proposal的CNN特征);
  • 存在重复的计算,每一个region proposal都需要计算CNN特征;

参考文献

[1] Girshick R, Donahue J, Darrell T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2014: 580-587.

[2] Uijlings J R R, Van De Sande K E A, Gevers T, et al. Selective search for object recognition[J]. International journal of computer vision, 2013, 104(2): 154-171.

[3] Selective Search for Object Detection (C++ / Python)

[4] JitendraMalik R G J D T D. Rich feature hierarchies for accurate object detection and semantic segmentation Supplementary material[J].

[5] 【计算机视觉——RCNN目标检测系列】一、选择性搜索详解

[6] 【计算机视觉—RCNN目标检测系列】二、边界框回归(Bounding-Box Regression)

[7] www.rossgirshick.info/

本网站的内容主要来自互联网上的各种资源,仅供参考和信息分享之用,不代表本网站拥有相关版权或知识产权。如您认为内容侵犯您的权益,请联系我们,我们将尽快采取行动,包括删除或更正。
AI教程

强化学习中的马尔科夫决策核心概念及应用

2023-12-12 20:42:14

AI教程

商汤发布「日日新 SenseNova」大模型体系,商量 SenseChat 首发中文语言大模型

2023-12-12 21:00:14

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索