我正在 Keras 上测试 LSTM 网络,在 CPU 上的训练(i2600k 16GB 上为 5 秒/epoch)比在 GPU 上(Nvidia 1060 6GB 上为 35 秒)要快得多。 GPU 利用率运行在 15% 左右,在尝试其他 LSTM 网络(包括 Keras 示例)时,我从未见过它超过 30%。当我运行其他类型的网络 MLP 和 CNN 时,GPU 速度要快得多。我正在使用最新的 theano 0.9.0dev4 和 keras 1.2.0
该序列有 50,000 个时间步长和 3 个输入(整数)。
如果输入为降序 (3,2,1),则输出为 0,如果输入为升序,则输出为 1,除非最后两个也为升序,则输出为 0 而不是 1。
使用 Keras 的CuDNNLSTM
Nvidia GPU 上加速计算的单元:https://keras.io/layers/recurrent/#cudnnlstm https://keras.io/layers/recurrent/#cudnnlstm
这只是改变LSTM
线路至:
model.add(CuDNNLSTM(20, input_shape=(50000,3), return_sequences=True))
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)