YOLOR:多任务的统一网络
人们通过视觉、听觉、触觉以及过去的经验“理解”世界。人类经验可以通过正常学习(我们称之为显性知识)或潜意识(我们称之为隐性知识)来学习。这些通过正常学习或潜意识学习到的经验将被编码并存储在大脑中。使用这些丰富的经验作为一个庞大的数据库,人类可以有效地处理数据,即使它们是事先不可见的。在本文中,我们提出了一个统一的网络来将隐性知识和显性知识编码在一起,就像人脑可以从正常学习和潜意识学习中学习知识一样。统一网络可以生成统一的表示以同时服务于各种任务。我们可以在卷积神经网络中执行内核空间对齐、预测优化和多任务学习。结果表明,当隐性知识被引入神经网络时,它有利于所有任务的性能。我们进一步分析了从所提出的统一网络中学习到的隐式表示,它在捕捉不同任务的物理意义方面显示出强大的能力。源码位于:https://github.com/WongKinYiu/yolor。
1、介绍
如图 1 所示,人类可以从不同角度分析同一条数据。 然而,经过训练的卷积神经网络 (CNN) 模型通常只能实现一个目标。 一般来说,可以从经过训练的 CNN 中提取的特征通常对其他类型的问题的适应性较差。 造成上述问题的主要原因是我们只从神经元中提取特征,没有使用CNN中丰富的隐式知识。 当真正的人脑在运作时,前述的隐性知识可以有效辅助大脑执行各种任务。
隐性知识是指在潜意识状态下学到的知识。 然而,对于内隐学习如何运作以及如何获得内隐知识,并没有系统的定义。 在神经网络的一般定义中,从浅层