有没有keras方法来分割数据?

2024-06-20

我认为标题是不言自明的,但要详细询问,有 sklearn 的方法train_test_split()其工作原理如下:X_train, X_test, Y_train, Y_test = train_test_split(X, Y, test_size = 0.3, stratify = Y)这意味着:该方法将以 0.3 : 0.7 的比例分割数据,并尝试使两个数据中标签的百分比相等。有与此等效的 keras 吗?


现在使用 keras Dataset 类。我正在运行 keras-2.2.4-tf 以及新的张量流版本。

基本上,使用类似的方法将所有数据加载到数据集中tf.data.Dataset.from_tensor_slices。然后将数据分割成新的数据集以进行训练和验证。例如,打乱数据集中的所有记录。然后使用除前 400 个之外的所有数据作为训练,使用前 400 个作为验证。

ds = ds_in.shuffle(buffer_size=rec_count)
ds_train = ds.skip(400)
ds_validate = ds.take(400)

Dataset 类的实例是 Keras 模型传递的自然容器。我从张量流或 keras 训练示例中复制了这个概念,但似乎无法再次找到它。

使用的罐装数据集load_data方法创建 numpy.ndarray 类,因此它们略有不同,但可以轻松转换为 keras 数据集。我怀疑这还没有完成,因为很多现有代码都会被破坏。

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

有没有keras方法来分割数据? 的相关文章

随机推荐