如果可以激活多个输出,那么 softmax 层的替代是什么?

2023-12-19

例如,我有 CNN,它尝试从 MNIST 数据集(使用 Keras 编写的代码)中预测数字。它有 10 个输出,形成 softmax 层。只有一个输出可以为真(对于从 0 到 9 的每一位数字都是独立的):

Real: [0, 1, 0, 0, 0, 0, 0, 0, 0, 0]
Predicted: [0.02, 0.9, 0.01, 0.01, 0.01, 0.01, 0.01, 0.01, 0.01, 0.01]

由于 softmax 的定义,预测的总和等于 1.0。

假设我有一个任务,需要对一些可以分为几个类别的对象进行分类:

Real: [0, 1, 0, 1, 0, 1, 0, 0, 0, 1]

所以我需要以其他方式正常化。我需要一个在 [0, 1] 范围内给出值并且总和可以大于 1 的函数。

我需要这样的东西:

Predicted: [0.1, 0.9, 0.05, 0.9, 0.01, 0.8, 0.1, 0.01, 0.2, 0.9]

每个数字都是对象属于给定类别的概率。之后,我可以使用像 0.5 这样的阈值来区分给定对象所属的类别。

出现以下问题:

  1. 那么哪个激活函数可以用于此目的呢?
  2. 这个函数可能已经存在于 Keras 中了吗?
  3. 也许您可以提出其他方法来预测这种情况?

您的问题是多标签分类之一,在 Keras 的上下文中对此进行了讨论,例如,此处:https://github.com/fchollet/keras/issues/741 https://github.com/fchollet/keras/issues/741

简而言之,keras 中建议的解决方案是将 softmax 层替换为 sigmoid 层,并使用 binary_crossentropy 作为成本函数。

该线程的一个例子:

# Build a classifier optimized for maximizing f1_score (uses class_weights)

clf = Sequential()

clf.add(Dropout(0.3))
clf.add(Dense(xt.shape[1], 1600, activation='relu'))
clf.add(Dropout(0.6))
clf.add(Dense(1600, 1200, activation='relu'))
clf.add(Dropout(0.6))
clf.add(Dense(1200, 800, activation='relu'))
clf.add(Dropout(0.6))
clf.add(Dense(800, yt.shape[1], activation='sigmoid'))

clf.compile(optimizer=Adam(), loss='binary_crossentropy')

clf.fit(xt, yt, batch_size=64, nb_epoch=300, validation_data=(xs, ys), class_weight=W, verbose=0)

preds = clf.predict(xs)

preds[preds>=0.5] = 1
preds[preds<0.5] = 0

print f1_score(ys, preds, average='macro')
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

如果可以激活多个输出,那么 softmax 层的替代是什么? 的相关文章

随机推荐