教育行業(yè)A股IPO第一股(股票代碼 003032)

全國咨詢/投訴熱線:400-618-4000

VGG的網絡架構有哪些特點?

更新時間:2023年10月13日18時15分 來源:傳智教育 瀏覽次數:

VGG可以看成是加深版的AlexNet,整個網絡由卷積層和全連接層疊加而成,和AlexNet不同的是,VGG中使用的都是小尺寸的卷積核(3×3),其網絡架構如下圖所示:

VGG

VGGNet使用的全部都是3x3的小卷積核和2x2的池化核,通過不斷加深網絡來提升性能。VGG可以通過重復使用簡單的基礎塊來構建深度模型。

VGGNET

在tf.keras中實現(xiàn)VGG模型,首先來實現(xiàn)VGG塊,它的組成規(guī)律是:連續(xù)使用多個相同的填充為1、卷積核大小為[Math Processing Error]3×3的卷積層后接上一個步幅為2、窗口形狀為[Math Processing Error]2×2的最大池化層。卷積層保持輸入的高和寬不變,而池化層則對其減半。我們使用vgg_block函數來實現(xiàn)這個基礎的VGG塊,它可以指定卷積層的數量num_convs和每層的卷積核個數num_filters:

# 定義VGG網絡中的卷積塊:卷積層的個數,卷積層中卷積核的個數
def vgg_block(num_convs, num_filters):
    # 構建序列模型
    blk = tf.keras.models.Sequential()
    # 遍歷所有的卷積層
    for _ in range(num_convs):
        # 每個卷積層:num_filter個卷積核,卷積核大小為3*3,padding是same,激活函數是relu
        blk.add(tf.keras.layers.Conv2D(num_filters,kernel_size=3,
                                    padding='same',activation='relu'))
    # 卷積塊最后是一個最大池化,窗口大小為2*2,步長為2
    blk.add(tf.keras.layers.MaxPool2D(pool_size=2, strides=2))
    return blk

VGG16網絡有5個卷積塊,前2塊使用兩個卷積層,而后3塊使用三個卷積層。第一塊的輸出通道是64,之后每次對輸出通道數翻倍,直到變?yōu)?12。

# 定義5個卷積塊,指明每個卷積塊中的卷積層個數及相應的卷積核個數
conv_arch = ((2, 64), (2, 128), (3, 256), (3, 512), (3, 512))

因為這個網絡使用了13個卷積層和3個全連接層,所以經常被稱為VGG-16,通過制定conv_arch得到模型架構后構建VGG16:

# 定義VGG網絡def vgg(conv_arch):
    # 構建序列模型
    net = tf.keras.models.Sequential()
    # 根據conv_arch生成卷積部分
    for (num_convs, num_filters) in conv_arch:
        net.add(vgg_block(num_convs, num_filters))
    # 卷積塊序列后添加全連接層
    net.add(tf.keras.models.Sequential([
        # 將特征圖展成一維向量
        tf.keras.layers.Flatten(),
        # 全連接層:4096個神經元,激活函數是relu
        tf.keras.layers.Dense(4096, activation='relu'),
        # 隨機失活
        tf.keras.layers.Dropout(0.5),
        # 全連接層:4096個神經元,激活函數是relu
        tf.keras.layers.Dense(4096, activation='relu'),
        # 隨機失活
        tf.keras.layers.Dropout(0.5),
        # 全連接層:10個神經元,激活函數是softmax
        tf.keras.layers.Dense(10, activation='softmax')]))
    return net# 網絡實例化net = vgg(conv_arch)

我們構造一個高和寬均為224的單通道數據樣本來看一下模型的架構:

# 構造輸入X,并將其送入到net網絡中
X = tf.random.uniform((1,224,224,1))
y = net(X)
# 通過net.summay()查看網絡的形狀
net.summay()

網絡架構如下:

Model: "sequential_15"
_________________________________________________________________
Layer (type)                 Output Shape              Param #   
=================================================================
sequential_16 (Sequential)   (1, 112, 112, 64)         37568     
_________________________________________________________________
sequential_17 (Sequential)   (1, 56, 56, 128)          221440    
_________________________________________________________________
sequential_18 (Sequential)   (1, 28, 28, 256)          1475328   
_________________________________________________________________
sequential_19 (Sequential)   (1, 14, 14, 512)          5899776   
_________________________________________________________________
sequential_20 (Sequential)   (1, 7, 7, 512)            7079424   
_________________________________________________________________
sequential_21 (Sequential)   (1, 10)                   119586826 
=================================================================
Total params: 134,300,362
Trainable params: 134,300,362
Non-trainable params: 0
__________________________________________________________________
0 分享到:
和我們在線交談!