目录
  • Keras中构建CNN的重要函数
    • 1、Conv2D
    • 2、MaxPooling2D
    • 3、Flatten
  • 全部代码

    利用Keras构建完普通BP神经网络后,还要会构建CNN

    Keras中构建CNN的重要函数

    1、Conv2D

    Conv2D用于在CNN中构建卷积层,在使用它之前需要在库函数处import它。

    from keras.layers import Conv2D

    在实际使用时,需要用到几个参数。

    Conv2D(
        nb_filter = 32,
        nb_row = 5,
        nb_col = 5,
        border_mode = 'same',
        input_shape = (28,28,1)
    )
    

    其中,nb_filter代表卷积层的输出有多少个channel,卷积之后图像会越来越厚,这就是卷积后图像的厚度。nb_row和nb_col的组合就是卷积器的大小,这里卷积器是(5,5)的大小。border_mode代表着padding的方式,same表示卷积前后图像的shape不变。input_shape代表输入的shape。

    2、MaxPooling2D

    MaxPooling2D指的是池化层,在使用它之前需要在库函数处import它。

    from keras.layers import MaxPooling2D

    在实际使用时,需要用到几个参数。

    MaxPooling2D(
        pool_size = (2,2),
        strides = (2,2),
        border_mode = 'same'
    )
    

    其中,pool_size表示池化器的大小,在这里,池化器的shape是(2,2)。strides是池化器的步长,这里在X和Y方向上都是2,池化后,输出比输入的shape小了1/2。border_mode代表着padding的方式。

    3、Flatten

    Flatten用于将卷积池化后最后的输出变为一维向量,这样才可以和全连接层连接,用于计算。在使用前需要用import导入。

    from keras.layers import Flatten

    在实际使用时,在最后一个池化层后直接添加层即可

    model.add(Flatten())

    全部代码

    这是一个卷积神经网络的例子,用于识别手写体,其神经网络结构如下:

    卷积层1->池化层1->卷积层2->池化层2->flatten->全连接层1->全连接层2->全连接层3。

    单个样本的shape如下:

    (28,28,1)->(28,28,32)->(14,14,32)->(14,14,64)->(7,7,64)->(3136)->(1024)->(256)

    import numpy as np
    from keras.models import Sequential
    from keras.layers import Dense,Activation,Conv2D,MaxPooling2D,Flatten ## 全连接层
    from keras.datasets import mnist
    from keras.utils import np_utils
    from keras.optimizers import Adam
    (X_train,Y_train),(X_test,Y_test) = mnist.load_data()
    X_train = X_train.reshape(-1,28,28,1)
    X_test = X_test.reshape(-1,28,28,1)
    Y_train = np_utils.to_categorical(Y_train,num_classes= 10)
    Y_test = np_utils.to_categorical(Y_test,num_classes= 10)
    model = Sequential()
    # conv1
    model.add(
        Conv2D(
            nb_filter = 32,
            nb_row = 5,
            nb_col = 5,
            border_mode = 'same',
            input_shape = (28,28,1)
        )
    )
    model.add(Activation("relu"))
    # pool1
    model.add(
        MaxPooling2D(
            pool_size = (2,2),
            strides = (2,2),
            border_mode = 'same'
        )
    )
    # conv2
    model.add(
        Conv2D(
            nb_filter = 64,
            nb_row = 5,
            nb_col = 5,
            border_mode = 'same'
        )
    )
    model.add(Activation("relu"))
    # pool2
    model.add(
        MaxPooling2D(
            pool_size = (2,2),
            strides = (2,2),
            border_mode = 'same'
        )
    )
    # 全连接层
    model.add(Flatten())
    model.add(Dense(1024))
    model.add(Activation("relu"))
    model.add(Dense(256))
    model.add(Activation("relu"))
    model.add(Dense(10))
    model.add(Activation("softmax"))
    adam = Adam(lr = 1e-4)
    ## compile
    model.compile(loss = 'categorical_crossentropy',optimizer = adam,metrics = ['accuracy'])
    ## tarin
    print("\ntraining")
    cost = model.fit(X_train,Y_train,nb_epoch = 2,batch_size = 32)
    print("\nTest")
    ## acc
    cost,accuracy = model.evaluate(X_test,Y_test)
    ## W,b = model.layers[0].get_weights()
    print("accuracy:",accuracy)
    

    实验结果为:

    Epoch 1/2
    60000/60000 [==============================] - 64s 1ms/step - loss: 0.7664 - acc: 0.9224
    Epoch 2/2
    60000/60000 [==============================] - 62s 1ms/step - loss: 0.0473 - acc: 0.9858
    Test
    10000/10000 [==============================] - 2s 169us/step
    accuracy: 0.9856
    

    以上就是python神经网络Keras构建CNN网络训练的详细内容,更多关于Keras构建CNN网络训练的资料请关注其它相关文章!

    声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。