KerasHub: 预训练模型 / API 文档 / 模型架构 / EfficientNet / EfficientNetBackbone 模型

EfficientNetBackbone 模型

[源代码]

EfficientNetBackbone

keras_hub.models.EfficientNetBackbone(
    stackwise_width_coefficients=None,
    stackwise_depth_coefficients=None,
    stackwise_kernel_sizes,
    stackwise_num_repeats,
    stackwise_input_filters,
    stackwise_output_filters,
    stackwise_expansion_ratios,
    stackwise_squeeze_and_excite_ratios,
    stackwise_strides,
    stackwise_block_types,
    stackwise_force_input_filters=[0, 0, 0, 0, 0, 0, 0],
    stackwise_nores_option=[False, False, False, False, False, False, False],
    dropout=0.2,
    depth_divisor=8,
    min_depth=8,
    input_shape=(None, None, 3),
    data_format="channels_last",
    activation="swish",
    include_stem_padding=True,
    use_depth_divisor_as_min_depth=False,
    cap_round_filter_decrease=False,
    stem_conv_padding="valid",
    batch_norm_momentum=0.9,
    batch_norm_epsilon=1e-05,
    projection_activation=None,
    num_features=1280,
    **kwargs
)

一个 EfficientNet 主干模型。

此类封装了 EfficientNetV1 和 EfficientNetV2 的架构。EfficientNetV2 使用 Fused-MBConv 模块和神经架构搜索 (NAS) 来显著减小模型大小,同时仍然提高整体模型质量。

参考文献

  • [EfficientNet:重新思考卷积神经网络的模型缩放] (https://arxiv.org/abs/1905.11946) (ICML 2019)
  • [基于原始 keras.applications EfficientNet] (https://github.com/keras-team/keras/blob/master/keras/applications/efficientnet.py)
  • [EfficientNetV2:更小的模型和更快的训练] (https://arxiv.org/abs/2104.00298) (ICML 2021)

参数

  • stackwise_width_coefficients:list[float],网络宽度的缩放系数。如果是单个浮点数,则假定此值适用于所有堆栈。
  • stackwise_depth_coefficients:list[float],网络深度的缩放系数。如果是单个浮点数,则假定此值适用于所有堆栈。
  • stackwise_kernel_sizes:整数列表,每个卷积块使用的内核大小。
  • stackwise_num_repeats:整数列表,每个卷积块重复的次数。
  • stackwise_input_filters:整数列表,每个卷积块的输入滤波器数量。
  • stackwise_output_filters:整数列表,卷积块模型中每个堆栈的输出滤波器数量。
  • stackwise_expansion_ratios:浮点数列表,传递给 Squeeze-and-Excitation 模块的扩展比。
  • stackwise_strides:整数列表,每个卷积块的堆栈步长。
  • stackwise_squeeze_and_excite_ratios:整数列表,传递给 Squeeze-and-Excitation 模块的 Squeeze-and-Excitation 比。
  • stackwise_block_types:字符串列表。每个值是 'v1'、'unfused' 或 'fused',具体取决于所需的块。'v1' 使用原始 EfficientNet 块。FusedMBConvBlock 类似于 MBConvBlock,但它不使用深度可分离卷积和 1x1 输出卷积块,而是使用单个 3x3 卷积块。
  • stackwise_force_input_filters:整数列表,如果 > 0 则覆盖 stackwise_input_filters。主要用于以与堆栈输入滤波器不同的方式参数化词干滤波器(通常是 stackwise_input_filters[0])。
  • stackwise_nores_option:布尔值列表,用于切换是否不使用残差连接。如果为 False(默认),堆栈将使用残差连接,否则不使用。
  • dropout:浮点数,跳过连接处的 dropout 率。默认值设置为 0.2。
  • depth_divisor:整数,网络宽度的单位。默认值设置为 8。
  • min_depth:整数,最小滤波器数量。如果 use_depth_divisor_as_min_depth 设置为 True,则可以为 None 并被忽略。
  • activation:每个卷积层之间使用的激活函数。
  • input_shape:可选的形状元组,它应该只有 3 个输入通道。
  • __ include_initial_padding__:布尔值,是否包含初始零填充(根据 v1)。
  • use_depth_divisor_as_min_depth:布尔值,是否使用 depth_divisor 作为最小深度而不是 min_depth(根据 v1)。
  • cap_round_filter_decrease:布尔值,是否限制舍入过程可能产生的滤波器数量的最大减少量(根据 v1)。
  • stem_conv_padding:字符串,可以是 'same' 或 'valid'。词干的填充。
  • batch_norm_momentum:浮点数,批归一化层中移动平均计算的动量。
  • batch_norm_epsilon:浮点数,批归一化计算的 epsilon。在计算中用作分母,以防止除以 0 错误。

示例

# You can customize the EfficientNet architecture:
model = EfficientNetBackbone(
    stackwise_kernel_sizes=[3, 3, 3, 3, 3, 3],
    stackwise_num_repeats=[2, 4, 4, 6, 9, 15],
    stackwise_input_filters=[24, 24, 48, 64, 128, 160],
    stackwise_output_filters=[24, 48, 64, 128, 160, 256],
    stackwise_expansion_ratios=[1, 4, 4, 4, 6, 6],
    stackwise_squeeze_and_excite_ratios=[0.0, 0.0, 0, 0.25, 0.25, 0.25],
    stackwise_strides=[1, 2, 2, 2, 1, 2],
    stackwise_block_types=[["fused"] * 3 + ["unfused"] * 3],
    width_coefficient=1.0,
    depth_coefficient=1.0,
)
images = np.ones((1, 256, 256, 3))
outputs = efficientnet.predict(images)

[源代码]

from_preset 方法

EfficientNetBackbone.from_preset(preset, load_weights=True, **kwargs)

从模型预设实例化一个 keras_hub.models.Backbone

预设是一个包含配置、权重和其他文件资源的目录,用于保存和加载预训练模型。preset 可以作为以下之一传递:

  1. 一个内置的预设标识符,如 'bert_base_en'
  2. 一个 Kaggle Models 句柄,如 'kaggle://user/bert/keras/bert_base_en'
  3. 一个 Hugging Face 句柄,如 'hf://user/bert_base_en'
  4. 一个本地预设目录的路径,如 './bert_base_en'

此构造函数可以通过两种方式调用。可以从基类(如 keras_hub.models.Backbone.from_preset())调用,也可以从模型类(如 keras_hub.models.GemmaBackbone.from_preset())调用。如果从基类调用,返回对象的子类将根据预设目录中的配置推断。

对于任何 Backbone 子类,您可以运行 cls.presets.keys() 来列出该类上所有可用的内置预设。

参数

  • preset:字符串。一个内置预设标识符、一个 Kaggle Models 句柄、一个 Hugging Face 句柄或一个本地目录的路径。
  • load_weights:布尔值。如果为 `True`,权重将被加载到模型架构中。如果为 `False`,权重将被随机初始化。

示例

# Load a Gemma backbone with pre-trained weights.
model = keras_hub.models.Backbone.from_preset(
    "gemma_2b_en",
)

# Load a Bert backbone with a pre-trained config and random weights.
model = keras_hub.models.Backbone.from_preset(
    "bert_base_en",
    load_weights=False,
)
预设 参数 描述
efficientnet_lite0_ra_imagenet 4.65M EfficientNet-Lite 模型在 ImageNet 1k 数据集上使用 RandAugment 策略进行微调。
efficientnet_b0_ra_imagenet 5.29M EfficientNet B0 模型在 ImageNet 1k 数据集上使用 RandAugment 策略进行预训练。
efficientnet_b0_ra4_e3600_r224_imagenet 5.29M EfficientNet B0 模型由 Ross Wightman 在 ImageNet 1k 数据集上预训练。使用 timm 脚本训练,超参数受 MobileNet-V4 small、timm 的通用超参数和“ResNet Strikes Back”的启发。
efficientnet_es_ra_imagenet 5.44M EfficientNet-EdgeTPU Small 模型在 ImageNet 1k 数据集上使用 RandAugment 策略进行训练。
efficientnet_em_ra2_imagenet 6.90M EfficientNet-EdgeTPU Medium 模型在 ImageNet 1k 数据集上使用 RandAugment2 策略进行训练。
efficientnet_b1_ft_imagenet 7.79M EfficientNet B1 模型在 ImageNet 1k 数据集上进行微调。
efficientnet_b1_ra4_e3600_r240_imagenet 7.79M EfficientNet B1 模型由 Ross Wightman 在 ImageNet 1k 数据集上预训练。使用 timm 脚本训练,超参数受 MobileNet-V4 small、timm 的通用超参数和“ResNet Strikes Back”的启发。
efficientnet_b2_ra_imagenet 9.11M EfficientNet B2 模型在 ImageNet 1k 数据集上使用 RandAugment 策略进行预训练。
efficientnet_el_ra_imagenet 10.59M EfficientNet-EdgeTPU Large 模型在 ImageNet 1k 数据集上使用 RandAugment 策略进行训练。
efficientnet_b3_ra2_imagenet 12.23M EfficientNet B3 模型在 ImageNet 1k 数据集上使用 RandAugment2 策略进行预训练。
efficientnet2_rw_t_ra2_imagenet 13.65M EfficientNet-v2 Tiny 模型在 ImageNet 1k 数据集上使用 RandAugment2 策略进行训练。
efficientnet_b4_ra2_imagenet 19.34M EfficientNet B4 模型在 ImageNet 1k 数据集上使用 RandAugment2 策略进行预训练。
efficientnet2_rw_s_ra2_imagenet 23.94M EfficientNet-v2 Small 模型在 ImageNet 1k 数据集上使用 RandAugment2 策略进行训练。
efficientnet_b5_sw_imagenet 30.39M EfficientNet B5 模型由 Ross Wightman 在 ImageNet 12k 数据集上预训练。基于 Swin Transformer 训练/预训练策略,并进行了修改(与 DeiT 和 ConvNeXt 策略相关)。
efficientnet_b5_sw_ft_imagenet 30.39M EfficientNet B5 模型由 Ross Wightman 在 ImageNet 12k 数据集上预训练,并在 ImageNet-1k 上微调。基于 Swin Transformer 训练/预训练策略,并进行了修改(与 DeiT 和 ConvNeXt 策略相关)。
efficientnet2_rw_m_agc_imagenet 53.24M EfficientNet-v2 Medium 模型在 ImageNet 1k 数据集上使用自适应梯度裁剪进行训练。