我想用一些图像来训练我的分类器,其中一些图像具有不同的尺寸。
它们都属于以下维度:
- 100x50
- 50x100
- 64x72
- 72x64
然而,由于有 9 个方向箱和每个单元 8 个像素,每个单元都会生成 648 个 HoG 特征。
实际上,我选择所有图像都具有这些尺寸之一,以便它们最终具有相同数量的 HoG 特征,从而使训练是统一的。
我选择这样做的原因是因为训练图像中感兴趣的对象有时具有不同的长宽比,因此将所有图像裁剪为相同的大小,而某些图像会留下太多背景。
现在我的问题是 - 只要 HoG 特征的数量一致,训练图像的长宽比/图像尺寸有什么关系? (我的训练算法只接受 HoG 特征)。
如果你的 HOG 特征全部使用 8x8 单元,那么如何为不同尺寸的图像获得相同尺寸的向量?更大的图像中不会有更多的单元格吗?
一般来说,如果你想使用 HOG,你应该将所有图像调整为相同的大小。
另一个问题:您只想对已经裁剪的图像进行分类,还是想检测大场景中的对象?如果你只是想分类,那么纵横比的变化可能是一个问题。另一方面,如果你想做滑动窗口目标检测,长宽比的变化是一个更大的问题。您可能必须根据纵横比将类别分成子类,并为每个子类训练一个单独的检测器。
Edit:抱歉,通过使用舍入误差和长宽比差异来使 HOG 向量具有相同的长度是作弊行为。 :) 重点是让 HOG 细胞编码空间信息。相应的细胞必须编码不同图像中的相同点。否则你就是在比较苹果和橘子。
就物体检测而言,纵横比至关重要。您将在图像上滑动一个窗口,并且该窗口最好具有与您尝试检测的对象相同的纵横比。否则,它根本行不通。因此,如果您有这 4 种不同的长宽比,那么最好的选择是训练 4 个不同的检测器。
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)