我正在尝试构建一个将 2 个数字相乘的神经网络。为了做同样的事情,我借助了 scikit-learn。我想要一个具有 2 个隐藏层 (5, 3) 和 ReLU 作为激活函数的神经网络。
我已经定义了我的MLPRegressor
如下:
X = data.drop('Product', axis=1)
y = data['Product']
X_train, X_test, y_train, y_test = train_test_split(X, y)
scaler = StandardScaler()
scaler.fit(X_train)
X_train = scaler.transform(X_train)
X_test = scaler.transform(X_test)
mlp = MLPRegressor(hidden_layer_sizes=(5, 3), activation="relu", learning_rate="adaptive", max_iter=500000, verbose=True, validation_fraction=0.25)
Here, data
是包含 3 列、2 个随机数和 1 个产品列的数据框。
问题是我得到的损失是 10^14 量级。如何减少这种损失、提高模型性能以及在这种情况下所有可能的更改可以帮助我解决问题?
我不是神经网络方面的专家。我会对输入进行对数转换,然后将它们输入网络,然后对输出求幂。只是一个想法。
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)