我正在为我的任务微调VGG-16 . 我的想法是,我加载预训练的权重,删除最后一层(具有1000个输出的softmax)并将其替换为具有少量输出的softmax . 然后我冻结所有层,但最后一个并训练模型 .
以下是构建原始模型并加载权重的代码 .
def VGG_16(weights_path=None):
model = Sequential()
model.add(ZeroPadding2D((1,1),input_shape=(224,224,3)))
model.add(Conv2D(64, (3, 3), activation='relu'))
model.add(ZeroPadding2D((1,1)))
model.add(Conv2D(64, (3, 3), activation='relu'))
model.add(MaxPooling2D((2,2), strides=(2,2)))
model.add(ZeroPadding2D((1,1)))
model.add(Conv2D(128, (3, 3), activation='relu'))
model.add(ZeroPadding2D((1,1)))
model.add(Conv2D(128, (3, 3), activation='relu'))
model.add(MaxPooling2D((2,2), strides=(2,2)))
model.add(ZeroPadding2D((1,1)))
model.add(Conv2D(256, (3, 3), activation='relu'))
model.add(ZeroPadding2D((1,1)))
model.add(Conv2D(256, (3, 3), activation='relu'))
model.add(ZeroPadding2D((1,1)))
model.add(Conv2D(256, (3, 3), activation='relu'))
model.add(MaxPooling2D((2,2), strides=(2,2)))
model.add(ZeroPadding2D((1,1)))
model.add(Conv2D(512, (3, 3), activation='relu'))
model.add(ZeroPadding2D((1,1)))
model.add(Conv2D(512, (3, 3), activation='relu'))
model.add(ZeroPadding2D((1,1)))
model.add(Conv2D(512, (3, 3), activation='relu'))
model.add(MaxPooling2D((2,2), strides=(2,2)))
model.add(ZeroPadding2D((1,1)))
model.add(Conv2D(512, (3, 3), activation='relu'))
model.add(ZeroPadding2D((1,1)))
model.add(Conv2D(512, (3, 3), activation='relu'))
model.add(ZeroPadding2D((1,1)))
model.add(Conv2D(512, (3, 3), activation='relu'))
model.add(MaxPooling2D((2,2), strides=(2,2)))
model.add(Flatten())
model.add(Dense(4096, activation='relu'))
model.add(Dropout(0.5))
model.add(Dense(4096, activation='relu'))
model.add(Dropout(0.5))
model.add(Dense(1000, activation='softmax'))
if weights_path:
model.load_weights(weights_path)
return model
在我的案例中,Keras使用Tensorflow作为后端 . Tensorflow构建为使用GPU(使用CUDA) . 我目前有一张相当古老的卡:GTX 760带有2Gb内存 .
在我的卡上我甚至无法加载整个模型(上面的代码),因为内存不足错误 .
Here作者说4Gb还不够 .
Here GTX 1070甚至能够训练VGG-16(不仅仅是将其加载到内存中),而是仅使用一些批量大小和不同的框架(不在Keras中) . 似乎GTX 1070总是拥有8Gb的内存 .
因此,似乎4Gb显然不足以微调VGG-16,而8Gb可能就足够了 .
问题是:什么样的内存足以用Keras TF来微调VGG-16? 6Gb是否足够,或者8Gb是最小的还是可以的,还是需要更大的东西?
1 回答
我已经在Tensorflow中对VGG-16进行了微调,批量大小为32(GPU:8GB) . 我认为这与你的情况相同,因为Keras使用Tensorflow . 但是,如果您想使用更大的批量大小进行训练,那么您可能需要12或16 GB的GPU .