YOLO 目标检测:算法如何预测大于网格单元的边界框?

2024-04-10

我试图更好地理解 YOLO2 和 3 算法的工作原理。该算法处理一系列卷积,直到达到13x13网格。然后它能够​​对每个网格单元内的对象以及这些对象的边界框进行分类。

如果您查看这张图片,您会发现红色边框比任何单个网格单元都大。边界框也以对象的中心为中心。

我的问题是,当网络激活基于单个网格单元时,预测的边界框如何超出网格单元的大小。我的意思是,对于预测在该单元中检测到的对象的边界框的神经元来说,网格单元之外的所有内容都应该是未知的。

更准确地说,这是我的问题:

1. 算法如何预测大于网格单元的边界框?

2. 算法如何知道物体的中心位于哪个单元格中?


网格单元之外的所有内容对于预测在该单元中检测到的物体的边界框的神经元来说应该是未知的。

这不太正确。这些细胞对应于图像的一个分区,如果物体的中心位于其中,神经元就学会了做出响应。

但是,那感受野这些输出神经元的数量比细胞大得多,并且实际上覆盖了整个图像。因此,它能够识别并在比指定的“中心单元”大得多的对象周围绘制边界框。

因此,一个细胞以输出神经元感受野的中心为中心,但它的部分要小得多。它也有些任意,例如,人们可以想象有重叠的细胞——在这种情况下,当一个物体位于其细胞重叠区域的中心时,你会期望相邻的神经元同时放电。

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

YOLO 目标检测:算法如何预测大于网格单元的边界框? 的相关文章

随机推荐