KerasHub: 预训练模型 / API 文档 / 模型架构 / MiT / MiTImageConverter

MiTImageConverter

[来源]

MiTImageConverter

keras_hub.layers.MiTImageConverter(
    image_size=None,
    scale=None,
    offset=None,
    crop_to_aspect_ratio=True,
    pad_to_aspect_ratio=False,
    interpolation="bilinear",
    antialias=False,
    bounding_box_format="yxyx",
    data_format=None,
    **kwargs
)

将原始图像预处理为模型就绪的输入。

此类将原始图像转换为模型就绪的输入。此转换过程包含以下步骤:

  1. 使用 image_size 调整图像大小。如果 image_sizeNone,则跳过此步骤。
  2. 通过乘以 scale 对图像进行缩放,scale 可以是全局的或按通道的。如果 scaleNone,则跳过此步骤。
  3. 通过添加 offset 对图像进行偏移,offset 可以是全局的或按通道的。如果 offsetNone,则跳过此步骤。

该层将采用通道在后 (channels last) 或通道在前 (channels first) 格式的原始图像张量作为输入,并输出用于建模的预处理后的图像输入。该张量可以批量处理(秩 4),也可以非批量处理(秩 3)。

该层可与 from_preset() 构造函数一起使用,以加载一个将为特定预训练模型重新缩放和调整图像大小的层。以这种方式使用该层可以在切换模型检查点时编写无需更新的预处理代码。

参数

  • image_size: (int, int) 元组或 None。图像的输出大小,不包括通道轴。如果为 None,则不对输入进行大小调整。
  • scale: float、浮点数元组或 None。应用于输入的缩放值。如果 scale 是单个浮点数,则整个输入将乘以 scale。如果 scale 是一个元组,则假定它包含与输入图像的每个通道相乘的每通道缩放值。如果 scaleNone,则不应用缩放。
  • offset: float、浮点数元组或 None。应用于输入的偏移值。如果 offset 是单个浮点数,则整个输入将与 offset 求和。如果 offset 是一个元组,则假定它包含与输入图像的每个通道相加的每通道偏移值。如果 offsetNone,则不应用缩放。
  • crop_to_aspect_ratio: 如果为 True,则在不失真纵横比的情况下调整图像大小。当原始纵横比与目标纵横比不同时,将裁剪输出图像,以返回图像中最大可能的窗口(大小为 (height, width)),该窗口与目标纵横比匹配。默认情况下 (crop_to_aspect_ratio=False),可能不会保留纵横比。
  • interpolation: 字符串,插值方法。支持 "bilinear""nearest""bicubic""lanczos3""lanczos5"。默认为 "bilinear"
  • antialias: 下采样图像时是否使用抗锯齿滤波器。默认为 False
  • bounding_box_format: 指定边界框格式的字符串,为 "xyxy""rel_xyxy""xywh""center_xywh""yxyx""rel_yxyx" 之一。指定将与图像一起调整大小到 image_size 的边界框的格式。要将边界框传递给此层,在调用该层时传递一个包含键 "images""bounding_boxes" 的字典。
  • data_format: 字符串,"channels_last""channels_first"。输入中维度的顺序。"channels_last" 对应于形状为 (batch, height, width, channels) 的输入,而 "channels_first" 对应于形状为 (batch, channels, height, width) 的输入。它默认为 Keras 配置文件 ~/.keras/keras.json 中的 image_data_format 值。如果您从未设置它,则它将是 "channels_last"

示例

# Resize raw images and scale them to [0, 1].
converter = keras_hub.layers.ImageConverter(
    image_size=(128, 128),
    scale=1. / 255,
)
converter(np.random.randint(0, 256, size=(2, 512, 512, 3)))

# Resize images to the specific size needed for a PaliGemma preset.
converter = keras_hub.layers.ImageConverter.from_preset(
    "pali_gemma_3b_224"
)
converter(np.random.randint(0, 256, size=(2, 512, 512, 3)))

[来源]

from_preset 方法

MiTImageConverter.from_preset(preset, **kwargs)

从模型预设实例化一个 keras_hub.layers.ImageConverter

预设是用于保存和加载预训练模型的一系列配置、权重和其他文件资产的目录。preset 可以以下列方式之一传递:

  1. 一个内置预设标识符,例如 'pali_gemma_3b_224'
  2. 一个 Kaggle Models 句柄,例如 'kaggle://user/paligemma/keras/pali_gemma_3b_224'
  3. 一个 Hugging Face 句柄,例如 'hf://user/pali_gemma_3b_224'
  4. 本地预设目录的路径,例如 './pali_gemma_3b_224'

您可以运行 cls.presets.keys() 来列出该类上所有可用的内置预设。

参数

  • preset: 字符串。内置预设标识符、Kaggle Models 句柄、Hugging Face 句柄或本地目录的路径。
  • load_weights: bool。如果为 True,则权重将加载到模型架构中。如果为 False,则权重将随机初始化。

示例

batch = np.random.randint(0, 256, size=(2, 512, 512, 3))

# Resize images for `"pali_gemma_3b_224"`.
converter = keras_hub.layers.ImageConverter.from_preset(
    "pali_gemma_3b_224"
)
converter(batch) # # Output shape (2, 224, 224, 3)

# Resize images for `"pali_gemma_3b_448"` without cropping.
converter = keras_hub.layers.ImageConverter.from_preset(
    "pali_gemma_3b_448",
    crop_to_aspect_ratio=False,
)
converter(batch) # # Output shape (2, 448, 448, 3)
预设 参数 描述
mit_b0_ade20k_512 3.32M 包含 8 个 Transformer 块的 MiT (MixTransformer) 模型。
mit_b0_cityscapes_1024 3.32M 包含 8 个 Transformer 块的 MiT (MixTransformer) 模型。
mit_b1_ade20k_512 13.16M 包含 8 个 Transformer 块的 MiT (MixTransformer) 模型。
mit_b1_cityscapes_1024 13.16M 包含 8 个 Transformer 块的 MiT (MixTransformer) 模型。
mit_b2_ade20k_512 24.20M 包含 16 个 Transformer 块的 MiT (MixTransformer) 模型。
mit_b2_cityscapes_1024 24.20M 包含 16 个 Transformer 块的 MiT (MixTransformer) 模型。
mit_b3_ade20k_512 44.08M 包含 28 个 Transformer 块的 MiT (MixTransformer) 模型。
mit_b3_cityscapes_1024 44.08M 包含 28 个 Transformer 块的 MiT (MixTransformer) 模型。
mit_b4_ade20k_512 60.85M 包含 41 个 Transformer 块的 MiT (MixTransformer) 模型。
mit_b4_cityscapes_1024 60.85M 包含 41 个 Transformer 块的 MiT (MixTransformer) 模型。
mit_b5_ade20k_640 81.45M 包含 52 个 Transformer 块的 MiT (MixTransformer) 模型。
mit_b5_cityscapes_1024 81.45M 包含 52 个 Transformer 块的 MiT (MixTransformer) 模型。