7.2. 使用块的网络(VGG)¶ SageMaker Studio Lab
虽然AlexNet证明深层神经网络卓有成效儋州预应力钢绞线价格,但它没有提供一个通用的模板来指导后续的研究人员设计新的网络。 在下面的几个章节中,我们将介绍一些常用于设计深层神经网络的启发式概念。
与芯片设计中工程师从放置晶体管到逻辑元件再到逻辑块的过程类似,神经网络架构的设计也逐渐变得更加抽象。研究人员开始从单个神经元的角度思考问题,发展到整个层,现在又转向块,重复层的模式。
天津市瑞通预应力钢绞线有限公司使用块的想法首先出现在牛津大学的视觉几何组(visual geometry group)的VGG网络中。通过使用循环和子程序,可以很容易地在任何现代深度学习框架的代码中实现这些重复的架构。
VGG神经网络连接 图7.2.1的几个VGG块(在vgg_block函数中定义)。其中有超参数变量conv_arch。该变量指定了每个VGG块里卷积层个数和输出通道数儋州预应力钢绞线价格。全连接模块则与AlexNet中的相同。
原始VGG网络有5个卷积块,其中前两个块各有一个卷积层,后三个块各包含两个卷积层。 第一个模块有64个输出通道,钢绞线每个后续模块将输出通道数量翻倍,直到该数字达到512。由于该网络使用8个卷积层和3个全连接层,因此它通常被称为VGG-11。
下面的代码实现了VGG-11。可以通过在conv_arch上执行for循环来简单实现。
接下来,我们将构建一个高度和宽度为224的单通道数据样本,以观察每个层输出的形状。
正如从代码中所看到的,我们在每个块的高度和宽度减半,最终高度和宽度都为7。最后再展平表示,送入全连接层处理。
除了使用略高的学习率外儋州预应力钢绞线价格,模型训练过程与 7.1节中的AlexNet类似。
相关词条:不锈钢保温





