是否可以使用Keras 的 scikit-learn API和...一起fit_generator()
方法?或者使用另一种方式来产生批次进行训练?我正在使用 SciPy 的稀疏矩阵,在输入 Keras 之前必须将其转换为 NumPy 数组,但由于内存消耗较高,我无法同时转换它们。这是我的批量生成函数:
def batch_generator(X, y, batch_size):
n_splits = len(X) // (batch_size - 1)
X = np.array_split(X, n_splits)
y = np.array_split(y, n_splits)
while True:
for i in range(len(X)):
X_batch = []
y_batch = []
for ii in range(len(X[i])):
X_batch.append(X[i][ii].toarray().astype(np.int8)) # conversion sparse matrix -> np.array
y_batch.append(y[i][ii])
yield (np.array(X_batch), np.array(y_batch))
和交叉验证的示例代码:
from sklearn.model_selection import StratifiedKFold, GridSearchCV
from sklearn import datasets
from keras.models import Sequential
from keras.layers import Activation, Dense
from keras.wrappers.scikit_learn import KerasClassifier
import numpy as np
def build_model(n_hidden=32):
model = Sequential([
Dense(n_hidden, input_dim=4),
Activation("relu"),
Dense(n_hidden),
Activation("relu"),
Dense(3),
Activation("sigmoid")
])
model.compile(loss="categorical_crossentropy", optimizer="adam", metrics=["accuracy"])
return model
iris = datasets.load_iris()
X = iris["data"]
y = iris["target"].flatten()
param_grid = {
"n_hidden": np.array([4, 8, 16]),
"nb_epoch": np.array(range(50, 61, 5))
}
model = KerasClassifier(build_fn=build_model, verbose=0)
skf = StratifiedKFold(n_splits=5).split(X, y) # this yields (train_indices, test_indices)
grid = GridSearchCV(model, param_grid, cv=skf, verbose=2, n_jobs=4)
grid.fit(X, y)
print(grid.best_score_)
print(grid.cv_results_["params"][grid.best_index_])
为了更多地解释它,它使用了所有可能的超参数组合param_grid
建立一个模型。然后,每个模型都会在训练-测试数据分割上一一进行训练和测试(folds) 由...提供StratifiedKFold
。那么给定模型的最终得分是所有折叠的平均得分。
那么是否可以在实际拟合之前在上面的代码中插入一些预处理子步骤来转换数据(稀疏矩阵)?
我知道我可以编写自己的交叉验证生成器,但它必须产生索引,而不是真实数据!