SAMImageConverter

[源代码]

SAMImageConverter

keras_hub.layers.SAMImageConverter(
    image_size=None,
    scale=None,
    offset=None,
    crop_to_aspect_ratio=True,
    pad_to_aspect_ratio=False,
    interpolation="bilinear",
    antialias=False,
    bounding_box_format="yxyx",
    data_format=None,
    **kwargs
)

将原始图像预处理为适合模型的输入。

该类将原始图像转换为适合模型的输入。此转换按以下步骤进行:

  1. 使用 `image_size` 调整图像大小。如果 `image_size` 为 `None`,则将跳过此步骤。
  2. 通过乘以 `scale` 来重新缩放图像,`scale` 可以是全局值或按通道的值。如果 `scale` 为 `None`,则将跳过此步骤。
  3. 通过加上 `offset` 来偏移图像,`offset` 可以是全局值或按通道的值。如果 `offset` 为 `None`,则将跳过此步骤。

该层将接收一个 channels last 或 channels first 格式的原始图像张量作为输入,并输出一个用于建模的预处理图像输入。该张量可以是批处理的(秩为 4),也可以是非批处理的(秩为 3)。

该层可以与 `from_preset()` 构造函数一起使用,以加载一个层,该层将为特定的预训练模型重新缩放和调整图像大小。以这种方式使用该层,可以在切换模型检查点时无需更新预处理代码。

参数

  • image_size:`(int, int)` 元组或 `None`。图像的输出尺寸,不包括通道轴。如果为 `None`,则不会调整输入的大小。
  • scale:浮点数、浮点数元组或 `None`。应用于输入的缩放比例。如果 `scale` 是单个浮点数,则整个输入都将乘以 `scale`。如果 `scale` 是一个元组,则假定它包含按通道的缩放值,与输入图像的每个通道相乘。如果 `scale` 为 `None`,则不应用缩放。
  • offset:浮点数、浮点数元组或 `None`。应用于输入的偏移量。如果 `offset` 是单个浮点数,则整个输入都将与 `offset` 相加。如果 `offset` 是一个元组,则假定它包含按通道的偏移值,与输入图像的每个通道相加。如果 `offset` 为 `None`,则不应用缩放。
  • crop_to_aspect_ratio:如果为 `True`,则在不扭曲宽高比的情况下调整图像大小。当原始宽高比与目标宽高比不同时,将对输出图像进行裁剪,以便在图像中返回与目标宽高比匹配的最大可能窗口(大小为 `(height, width)`)。默认情况下 (`crop_to_aspect_ratio=False`),可能不保留宽高比。
  • interpolation:字符串,插值方法。支持 `"bilinear"`、`"nearest"`、`"bicubic"`、`"lanczos3"`、`"lanczos5"`。默认为 `"bilinear"`。
  • antialias:下采样图像时是否使用抗锯齿滤波器。默认为 `False`。
  • bounding_box_format:一个字符串,指定边界框的格式,为 `"xyxy"`、`"rel_xyxy"`、`"xywh"`、`"center_xywh"`、`"yxyx"`、`"rel_yxyx"` 之一。指定边界框的格式,这些边界框将与图像一起调整为 `image_size`。要将边界框传递给此层,请在调用该层时传递一个包含键 `"images"` 和 `"bounding_boxes"` 的字典。
  • data_format:字符串,`"channels_last"` 或 `"channels_first"`。输入中维度的顺序。`"channels_last"` 对应于形状为 `(batch, height, width, channels)` 的输入,而 `"channels_first"` 对应于形状为 `(batch, channels, height, width)` 的输入。它默认为您 Keras 配置文件 `~/.keras/keras.json` 中的 `image_data_format` 值。如果您从未设置过它,那么它将是 `"channels_last"`。

示例

# Resize raw images and scale them to [0, 1].
converter = keras_hub.layers.ImageConverter(
    image_size=(128, 128),
    scale=1. / 255,
)
converter(np.random.randint(0, 256, size=(2, 512, 512, 3)))

# Resize images to the specific size needed for a PaliGemma preset.
converter = keras_hub.layers.ImageConverter.from_preset(
    "pali_gemma_3b_224"
)
converter(np.random.randint(0, 256, size=(2, 512, 512, 3)))

[源代码]

from_preset 方法

SAMImageConverter.from_preset(preset, **kwargs)

从模型预设实例化一个 `keras_hub.layers.ImageConverter`

预设是一个包含配置、权重和其他文件资产的目录,用于保存和加载预训练模型。preset 可以作为以下之一传递:

  1. 内置预设标识符,如 `'pali_gemma_3b_224'`
  2. Kaggle Models 句柄,如 `'kaggle://user/paligemma/keras/pali_gemma_3b_224'`
  3. Hugging Face 句柄,如 `'hf://user/pali_gemma_3b_224'`
  4. 本地预设目录的路径,如 `'./pali_gemma_3b_224'`

您可以运行 `cls.presets.keys()` 来列出该类上所有可用的内置预设。

参数

  • preset:字符串。一个内置预设标识符、一个 Kaggle Models 句柄、一个 Hugging Face 句柄或一个本地目录的路径。
  • load_weights:布尔值。如果为 `True`,权重将被加载到模型架构中。如果为 `False`,权重将被随机初始化。

示例

batch = np.random.randint(0, 256, size=(2, 512, 512, 3))

# Resize images for `"pali_gemma_3b_224"`.
converter = keras_hub.layers.ImageConverter.from_preset(
    "pali_gemma_3b_224"
)
converter(batch) # # Output shape (2, 224, 224, 3)

# Resize images for `"pali_gemma_3b_448"` without cropping.
converter = keras_hub.layers.ImageConverter.from_preset(
    "pali_gemma_3b_448",
    crop_to_aspect_ratio=False,
)
converter(batch) # # Output shape (2, 448, 448, 3)
预设 参数 描述
sam_base_sa1b 93.74M 在 SA1B 数据集上训练的基础 SAM 模型。
sam_huge_sa1b 312.34M 在 SA1B 数据集上训练的巨型 SAM 模型。
sam_large_sa1b 641.09M 在 SA1B 数据集上训练的大型 SAM 模型。