Keras实现LeNet网络参考

2023-11-18

模型论文地址

Yann LeCun(1998)的论文《Gradient-Based Learning Applied to Document Recognition》,用于MNIST数据集。

模型结构说明

输入为32X32的灰度图像,第一层为6个5X5卷积核,不扩展边界;

第二层为2X2的最大值池化层,步进为2X2;

第三层为16个5X5卷积核,不扩展边界;

第四层为2X2的最大值池化层,步进为2X2;

第五层为展平层,并全连接120个节点;

第六层为全连接层,84个节点;

第七层为全连接softmax层,输出结果。

模型示意图

参考代码

1、模型实现采用keras中的Sequential。

2、源数据分为train和test两个文件夹(注意每个文件夹下有十个子文件夹,分别方有0--9数字对应的灰度图。)。

3、实现代码如下:

import os
import cv2
from numpy import *
from keras.models import Sequential
from keras.layers import Dense
from keras.layers import Conv2D, MaxPooling2D, Flatten
from keras.optimizers import SGD
from keras.utils import np_utils
from keras.utils.vis_utils import plot_model
 
#加载灰度图片
def loadData(path):
    data = []
    labels = []
    for i in range(10):
        dir = './'+path+'/'+str(i)
        listImg = os.listdir(dir)
        for img in listImg:
            data.append([cv2.imread(dir+'/'+img, 0)])
            labels.append(i)
        print path, i, 'is read'
    return data, labels
 
 
trainData, trainLabels = loadData('train')
testData, testLabels = loadData('test')

#编码
trainLabels = np_utils.to_categorical(trainLabels, 10)
testLabels = np_utils.to_categorical(testLabels, 10)
 
#创建Sequential对象
model = Sequential()

#卷积层、池化层
model.add(Conv2D(filters=6, kernel_size=(5,5), padding='valid', input_shape=(1,28,28), activation='tanh'))
model.add(MaxPooling2D(pool_size=(2,2)))
model.add(Conv2D(filters=16, kernel_size=(5,5), padding='valid', activation='tanh'))
model.add(MaxPooling2D(pool_size=(2,2)))

#Flatten层、全连接层
model.add(Flatten())
model.add(Dense(120, activation='tanh'))
model.add(Dense(84, activation='tanh'))
model.add(Dense(10, activation='softmax'))

#优化器
sgd = SGD(lr=0.05, decay=1e-6, momentum=0.9, nesterov=True)

#编译、训练
model.compile(optimizer=sgd, loss='categorical_crossentropy', metrics=['accuracy'])
model.fit(trainData, trainLabels, batch_size=500, epochs=20, verbose=1, shuffle=True)
 
plot_model(model, to_file='model.png', show_shapes=True, show_layer_names=False)

网络结构图

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

Keras实现LeNet网络参考 的相关文章

随机推荐