keras对MNIST数据集分类

利用keras工具对MNIST数据集分类

first step : 环境配置

-keras  —— 神经网络搭建 —— *conda install keras*
-numpy  ——数据集的处理 —— *conda install numpy*

second step :数据集的导入

各种数据集的导入都需要用到keras的dataset包,如果使用这个包,他会默认前往亚马逊下载数据集,如果需要使用本地包只能修改源码。

或者可以利用其他方法载入数据集,只要在训练前,完成格式转换就可以。

    from keras.dataset import mnist
    (trainX,trainY),(testX,testY)= mnist.load_data(path='./dataset/mnist.npz')  
    #<class 'numpy.ndarray'>  Y:(60000) 需要注意one_hot
    # 同时 样本 像素为255
    from keras.utils import np_utils
    trainY = np_utils.to_categorical(trainY, 10)

    import tflearn.datasets.mnist as mnist
    X, Y, testX, testY = mnist.load_data(one_hot=True)

third

搭建模型,作者也属于初学keras,下面代码所示属于线性网络结构,所以并不复杂,另外可以再加入卷积池化,还可以自定网络的损失函数,这些可以在后面接触。

    def model():
        model =Sequential()
        model.add(Flatten())
        model.add(Dense(1024))  #三个全连接 + softmax激活
        model.add(Dense(512))
        model.add(Dense(128))
        model.add(Dense(10))
        model.add(Activation('softmax'))
        model.compile(loss='categorical_crossentropy',optimizer='adadelta',metrics=['accuracy'])
        #利用已有的交叉熵损失函数,以及优化器训练。
        return model

特别需要注意全连接层的使用,要加上平滑操作。

在这里插入图片描述

fourth

搭建完模型就可以开始训练并保存模型了。

    model = model() #调用函数能到神经网络
    model.fit(trainX, trainY, batch_size=256, epochs=12,verbose=1, validation_data=(testX, testY))

    model.save('path/to/location') 

这种保存方式会将所有有关模型的信息保存下来。

更多保存方式的介绍可以如图。

(https://www.tensorflow.org/guide/keras/save_and_serialize?hl=zh-cn)

在这里插入图片描述

fifth

训练完成后可以利用保存的模型,加载查看效果。

    model =  keras.models.load_model('./Dense_4/model')
    score = model.evaluate(testX, testY, verbose=0)
    print('Test loss:', score[0])
    print('Test accuracy:', score[1])

Problems

需要弄清楚keras.models与自己建立model之间的关联。
保存与读取模型的各种办法
如何对单层进行抽取
如何使用GPU