PatchExtractor#

класс sklearn.feature_extraction.image.PatchExtractor(*, patch_size=None, max_patches=None, random_state=None)[источник]#

Извлекает патчи из коллекции изображений.

Подробнее в Руководство пользователя.

Добавлено в версии 0.9.

Параметры:
patch_sizeкортеж int (patch_height, patch_width), по умолчанию=None

Размеры одного патча. Если установлено в None, размер патча будет автоматически установлен в (img_height // 10, img_width // 10), где img_height и img_width являются размерами входных изображений.

max_patchesint или float, по умолчанию=None

Максимальное количество патчей для извлечения на изображение. Если max_patches если это число с плавающей точкой в (0, 1), оно считается долей от общего количества патчей. Если установлено в None, извлекаются все возможные патчи.

random_stateint, экземпляр RandomState, по умолчанию=None

Определяет генератор случайных чисел, используемый для случайной выборки, когда max_patches is not NoneИспользуйте целое число для детерминированной случайности. См. Глоссарий.

Смотрите также

reconstruct_from_patches_2d

Восстановить изображение из всех его патчей.

Примечания

Этот оценщик не имеет состояния и не требует обучения. Однако мы рекомендуем вызывать fit_transform вместо transform, так как проверка параметров выполняется только в fit.

Примеры

>>> from sklearn.datasets import load_sample_images
>>> from sklearn.feature_extraction import image
>>> # Use the array data from the second image in this dataset:
>>> X = load_sample_images().images[1]
>>> X = X[None, ...]
>>> print(f"Image shape: {X.shape}")
Image shape: (1, 427, 640, 3)
>>> pe = image.PatchExtractor(patch_size=(10, 10))
>>> pe_trans = pe.transform(X)
>>> print(f"Patches shape: {pe_trans.shape}")
Patches shape: (263758, 10, 10, 3)
>>> X_reconstructed = image.reconstruct_from_patches_2d(pe_trans, X.shape[1:])
>>> print(f"Reconstructed shape: {X_reconstructed.shape}")
Reconstructed shape: (427, 640, 3)
fit(X, y=None)[источник]#

Проверяйте только параметры оценщика.

Этот метод позволяет: (i) проверить параметры оценщика и (ii) быть совместимым с API трансформеров scikit-learn.

Параметры:
Xndarray формы (n_samples, image_height, image_width) или (n_samples, image_height, image_width, n_channels)

Массив изображений, из которых извлекаются патчи. Для цветных изображений последнее измерение указывает канал: RGB-изображение будет иметь n_channels=3.

yИгнорируется

Не используется, присутствует для согласованности API по соглашению.

Возвращает:
selfobject

Возвращает сам экземпляр.

fit_transform(X, y=None, **fit_params)[источник]#

Обучение на данных с последующим преобразованием.

Обучает преобразователь на X и y с необязательными параметрами fit_params и возвращает преобразованную версию X.

Параметры:
Xarray-like формы (n_samples, n_features)

Входные выборки.

yarray-like формы (n_samples,) или (n_samples, n_outputs), default=None

Целевые значения (None для неконтролируемых преобразований).

**fit_paramsdict

Дополнительные параметры обучения. Передавайте только если оценщик принимает дополнительные параметры в своем fit метод.

Возвращает:
X_newndarray массив формы (n_samples, n_features_new)

Преобразованный массив.

6332()[источник]#

Получить маршрутизацию метаданных этого объекта.

Пожалуйста, проверьте Руководство пользователя о том, как работает механизм маршрутизации.

Возвращает:
маршрутизацияMetadataRequest

A MetadataRequest Инкапсуляция информации о маршрутизации.

get_params(глубокий=True)[источник]#

Получить параметры для этого оценщика.

Параметры:
глубокийbool, по умолчанию=True

Если True, вернет параметры для этого оценщика и вложенных подобъектов, которые являются оценщиками.

Возвращает:
paramsdict

Имена параметров, сопоставленные с их значениями.

set_output(*, преобразовать=None)[источник]#

Установить контейнер вывода.

См. Введение API set_output для примера использования API.

Параметры:
преобразовать{“default”, “pandas”, “polars”}, по умолчанию=None

Настройка вывода transform и fit_transform.

  • "default": Формат вывода трансформера по умолчанию

  • "pandas": DataFrame вывод

  • "polars": Вывод Polars

  • None: Конфигурация преобразования не изменена

Добавлено в версии 1.4: "polars" опция была добавлена.

Возвращает:
selfэкземпляр estimator

Экземпляр оценщика.

set_params(**params)[источник]#

Установить параметры этого оценщика.

Метод работает как на простых оценщиках, так и на вложенных объектах (таких как Pipeline). Последние имеют параметры вида __ чтобы можно было обновить каждый компонент вложенного объекта.

Параметры:
**paramsdict

Параметры оценщика.

Возвращает:
selfэкземпляр estimator

Экземпляр оценщика.

преобразовать(X)[источник]#

Преобразовать образцы изображений в X , подходит для быстрых, самостоятельных задач кластеризации. Для рабочих процессов на основе оценщиков, где требуются атрибуты оценщика или интеграция конвейера, предпочтительнее

Параметры:
Xndarray формы (n_samples, image_height, image_width) или (n_samples, image_height, image_width, n_channels)

Массив изображений, из которых извлекаются патчи. Для цветных изображений последнее измерение указывает канал: RGB-изображение будет иметь n_channels=3.

Возвращает:
патчимассив формы (n_patches, patch_height, patch_width) или (n_patches, patch_height, patch_width, n_channels)

Коллекция патчей, извлеченных из изображений, где n_patches является либо n_samples * max_patches или общее количество патчей, которые можно извлечь.