头条 科技 产经 家电 智能 手机 芯片 数码 电商 WAP版
-移动互联网与智能搜索领域是未来IT产业发展的趋势!
中国IT产经新闻/数码电子/正文
Anchorfree将相同尺寸的输出倒推得到不同尺寸的输入
来源:
2023-08-18
编辑:晓露

       什么是Anchor:
       首先我们需要知道anchor的思想是什么,近似SPP(spatial pyramid pooling)思想的逆向,而SPP本身是做什么的呢,就是将不同尺寸的输入resize成为相同尺寸的输出。所以SPP的逆向就是,将相同尺寸的输出,倒推得到不同尺寸的输入。其次明确anchor的位置。anchor是在原图上的区域,而不是在特征图上(也就是特征图上一个点可以对应到原图上一个n*n的区域)。然后放一张RPN网络解析图:
       SPPnet机制:将CNN的输入从固定尺寸改进为任意尺寸,例如在CNN结构中,输入图像的尺寸往往固定的(如224x224像素),输出可看做固定维数的向量. SPPNet在普通的CNN结构中加入了ROI池化层(ROI Pooling)使得网络输入图像可以为任意size,而保证了输出维度是固定的向量.


       Anchor的意义:
       Faster r-cnn 之所以使用anchor,在我看来,无非两点:容易使模型快速收敛,容易找到目标大小和对应的feature map.anchor本身并不会参与到网络的运算中去,影响的只会是classification和bbox regression分支的target(训练阶段)和怎样decode box(测试阶段)
       (1):若是不使用anchor,boundingbox 回归的范围就会比较大,这样会导致计算的loss的范围跳动变大,从而影像训练的难度.也会对于不同的大小目标的精度有倾斜性,增大网络的偏好,目标预测会有不确定性.
       (2):有了 anchor,就可以把不同尺寸的目标分配到对应的 anchor 上,这样对应 anchor 的网络权值就仅仅负责一个比较小的目标尺寸范围(我一或几个值,就能代表原图上的一个区域),同时学习过程中,是显式的通过不同的分支、路径来传递不同尺寸目标的 loss,让网络更加符合“逻辑”的得到训练。
       Anchor的思考:
       目标在那个anchor是简单粗暴的,按照谁的IOU大就归谁的方法划分.而且 anchor 本身的尺寸、比例也是人工指定的,虽然与不同level的featuremap有一定的关系,但并没有和网络结构的设计有良好的耦合(虽然 anchor 可以通过数据集的聚类来获得,但是这也只是单方面的与数据集有了耦合),实际中往往一个目标适合两个或多个anchor,是不是可以用一种更加平滑的方法来加权,而非简单粗暴的0-1选择.

厂商动态更多
热门综合更多
CopyRight @ 2008-2024 IT产经新闻网 All Right Reserved 违者必究 湘ICP备2022017330号-2
Baidu
map