Перейти к основному содержанию
Ctrl+K
scikit-learn homepage scikit-learn homepage
  • Установить
  • Руководство пользователя
  • API
  • Примеры
  • Сообщество
    • Начало работы
    • История выпусков
    • Глоссарий
    • Разработка
    • Часто задаваемые вопросы
    • Поддержка
    • Связанные проекты
    • Дорожная карта
    • Управление
    • О нас
  • GitHub
  • Установить
  • Руководство пользователя
  • API
  • Примеры
  • Сообщество
  • Начало работы
  • История выпусков
  • Глоссарий
  • Разработка
  • Часто задаваемые вопросы
  • Поддержка
  • Связанные проекты
  • Дорожная карта
  • Управление
  • О нас
  • GitHub

Навигация по разделам

  • Основные изменения в выпуске
    • Основные нововведения в scikit-learn 1.8
    • Основные новости выпуска scikit-learn 1.7
    • Основные новости выпуска scikit-learn 1.6
    • Основные новости выпуска scikit-learn 1.5
    • Основные нововведения выпуска scikit-learn 1.4
    • Основные изменения в выпуске scikit-learn 1.3
    • Основные новости выпуска scikit-learn 1.2
    • Основные изменения в выпуске scikit-learn 1.1
    • Основные новости выпуска scikit-learn 1.0
    • Основные нововведения scikit-learn 0.24
    • Основные новости выпуска scikit-learn 0.23
    • Основные нововведения в выпуске scikit-learn 0.22
  • Бикластеризация
    • Демонстрация алгоритма Spectral Biclustering
    • Демонстрация алгоритма спектральной совместной кластеризации
    • Бикластеризация документов с помощью алгоритма спектральной совместной кластеризации
  • Калибровка
    • Сравнение калибровки классификаторов
    • Кривые калибровки вероятности
    • Калибровка вероятностей для классификации на 3 класса
    • Калибровка вероятностей классификаторов
  • Классификация
    • Сравнение классификаторов
    • Линейный и квадратичный дискриминантный анализ с эллипсоидом ковариации
    • Нормальный, Ledoit-Wolf и OAS линейный дискриминантный анализ для классификации
    • Построить график вероятности классификации
    • Распознавание рукописных цифр
  • Кластеризация
    • Демонстрация кластеризации K-Means на данных рукописных цифр
    • Демонстрация структурированной иерархической кластеризации Уорда на изображении монет
    • Демонстрация алгоритма кластеризации mean-shift
    • Коррекция на случайность в оценке производительности кластеризации
    • Агломеративная кластеризация с разными метриками
    • Пример инициализации K-Means++
    • Сравнение производительности биссекционного K-средних и обычного K-средних
    • Сравнение BIRCH и MiniBatchKMeans
    • Сравнение различных алгоритмов кластеризации на игрушечных наборах данных
    • Сравнение различных методов иерархической связи на игрушечных наборах данных
    • Сравнение алгоритмов кластеризации K-Means и MiniBatchKMeans
    • Демонстрация алгоритма кластеризации DBSCAN
    • Демонстрация алгоритма кластеризации HDBSCAN
    • Демонстрация алгоритма кластеризации OPTICS
    • Демонстрация алгоритма кластеризации с распространением аффинности
    • Демонстрация предположений k-means
    • Эмпирическая оценка влияния инициализации k-means
    • Агломерация признаков
    • Агломерация признаков против одномерного отбора
    • Иерархическая кластеризация со структурой и без
    • Индуктивная кластеризация
    • Онлайн-обучение словаря частей лиц
    • Построить дендрограмму иерархической кластеризации
    • Сегментация изображения греческих монет на регионы
    • Выбор количества кластеров с помощью анализа силуэта для кластеризации KMeans
    • Спектральная кластеризация для сегментации изображений
    • Различные агломеративные кластеризации на 2D-вложении цифр
    • Пример векторного квантования
  • Оценка ковариации
    • Оценка Ледойта-Вольфа против OAS оценки
    • Робастная оценка ковариации и релевантность расстояний Махаланобиса
    • Робастная vs эмпирическая оценка ковариации
    • Оценка ковариации сжатием: LedoitWolf vs OAS и максимальное правдоподобие
    • Оценка разреженной обратной ковариации
  • Перекрестное разложение
    • Сравнить методы перекрёстного разложения
    • Регрессия на главных компонентах против регрессии методом частичных наименьших квадратов
  • Примеры наборов данных
    • Построение случайно сгенерированного многометочного набора данных
  • Деревья решений
    • Регрессия дерева решений
    • Построить поверхность решений деревьев решений, обученных на наборе данных ирисов
    • Пост-обрезка деревьев решений с обрезкой по стоимости сложности
    • Понимание структуры дерева решений
  • Разложение
    • Разделение слепых источников с использованием FastICA
    • Сравнение LDA и PCA 2D проекции набора данных Iris
    • Разложения набора данных Faces
    • Факторный анализ (с вращением) для визуализации паттернов
    • FastICA на 2D облаках точек
    • Удаление шума изображений с использованием обучения словаря
    • Инкрементальный PCA
    • Ядерный PCA
    • Выбор модели с вероятностным PCA и факторным анализом (FA)
    • Анализ главных компонент (PCA) на наборе данных Iris
    • Разреженное кодирование с предвычисленным словарём
  • Разработка оценщиков
    • __sklearn_is_fitted__ как API для разработчиков
  • Ансамблевые методы
    • Поддержка категориальных признаков в градиентном бустинге
    • Объедините предикторы с помощью стекинга
    • Сравнение моделей случайных лесов и градиентного бустинга на гистограммах
    • Сравнение случайных лесов и мета-оценщика с множественным выходом
    • Регрессия решающего дерева с AdaBoost
    • Ранняя остановка в градиентном бустинге
    • Важность признаков с использованием леса деревьев
    • Преобразования признаков с ансамблями деревьев
    • Признаки в деревьях с градиентным бустингом на гистограммах
    • Оценки Gradient Boosting Out-of-Bag
    • Градиентный бустинг для регрессии
    • Регуляризация градиентного бустинга
    • Преобразование признаков с хешированием с использованием полностью случайных деревьев
    • Пример IsolationForest
    • Монотонные ограничения
    • Многоклассовые деревья решений с бустингом AdaBoost
    • Ошибки OOB для случайных лесов
    • Построить индивидуальные и голосующие регрессионные предсказания
    • Построить поверхности решений ансамблей деревьев на наборе данных ирисов
    • Интервалы прогнозирования для регрессии градиентного бустинга
    • Один оценщик против бэггинга: декомпозиция смещения-дисперсии
    • Двухклассовый AdaBoost
    • Визуализация вероятностных предсказаний VotingClassifier
  • Примеры на основе реальных наборов данных
    • Компрессионное зондирование: реконструкция томографии с априорным распределением L1 (Lasso)
    • Пример распознавания лиц с использованием собственных лиц и SVM
    • Удаление шума с изображения с использованием ядерного PCA
    • Лаггированные признаки для прогнозирования временных рядов
    • Влияние сложности модели
    • Классификация текстовых документов вне памяти
    • Обнаружение выбросов на реальном наборе данных
    • Задержка предсказания
    • Моделирование распределения видов
    • Инженерия временных признаков
    • Извлечение тем с использованием неотрицательной матричной факторизации и латентного размещения Дирихле
    • Визуализация структуры фондового рынка
    • Главный собственный вектор Википедии
  • Выбор признаков
    • Сравнение F-теста и взаимной информации
    • Основанный на модели и последовательный отбор признаков
    • Конвейер ANOVA SVM
    • Рекурсивное исключение признаков
    • Рекурсивное исключение признаков с перекрестной проверкой
    • Одномерный отбор признаков
  • Замороженные оценщики
    • Примеры использования FrozenEstimator
  • Гауссовские смеси моделей
    • Анализ вариации байесовской гауссовой смеси с априорным типом концентрации
    • Оценка плотности для гауссовской смеси
    • Методы инициализации GMM
    • Ковариации GMM
    • Эллипсоиды гауссовской смеси
    • Выбор модели гауссовской смеси
    • Гауссова смесь моделей синусоидальной кривой
  • Гауссовский процесс для машинного обучения
    • Способность гауссовского процесса регрессии (GPR) оценивать уровень шума данных
    • Сравнение ядерной гребневой регрессии и регрессии по методу Гауссовских процессов
    • Прогнозирование уровня CO2 на наборе данных Mona Loa с использованием гауссовской регрессии (GPR)
    • Регрессия гауссовских процессов: базовый вводный пример
    • Гауссовский процесс классификации (GPC) на наборе данных iris
    • Гауссовские процессы на дискретных структурах данных
    • Иллюстрация классификации гауссовским процессом (GPC) на наборе данных XOR
    • Иллюстрация априорного и апостериорного гауссовских процессов для различных ядер
    • Изолинии равной вероятности для классификации гауссовских процессов (GPC)
    • Вероятностные предсказания с гауссовским процессом классификации (GPC)
  • Обобщенные линейные модели
    • Сравнение линейных байесовских регрессоров
    • Аппроксимация кривой с использованием байесовской гребневой регрессии
    • Границы решений мультиномиальной и логистической регрессии One-vs-Rest
    • Ранняя остановка стохастического градиентного спуска
    • Обучение Elastic Net с предвычисленной матрицей Грама и взвешенными выборками
    • HuberRegressor против Ridge на наборе данных с сильными выбросами
    • Совместный отбор признаков с многозадачным Lasso
    • L1-штраф и разреженность в логистической регрессии
    • Модели на основе L1 для разреженных сигналов
    • Выбор модели Lasso с помощью информационных критериев
    • Выбор модели Lasso: AIC-BIC / перекрёстная проверка
    • Lasso на плотных и разреженных данных
    • Пути Lasso, Lasso-LARS и Elastic Net
    • Классификация MNIST с использованием мультиномиальной логистической регрессии + L1
    • Многоклассовая разреженная логистическая регрессия на 20newsgroups
    • Метод наименьших квадратов с неотрицательными ограничениями
    • One-Class SVM против One-Class SVM с использованием стохастического градиентного спуска
    • Метод наименьших квадратов и гребневая регрессия
    • Orthogonal Matching Pursuit
    • Построение коэффициентов Ridge как функции регуляризации
    • Построение многоклассового SGD на наборе данных iris
    • Пуассоновская регрессия и ненормальные потери
    • Полиномиальная и сплайновая интерполяция
    • Квантильная регрессия
    • Регуляризационный путь L1-логистической регрессии
    • Коэффициенты Ridge как функция L2-регуляризации
    • Робастная оценка линейной модели
    • Робастная оценка линейной модели с использованием RANSAC
    • SGD: Гиперплоскость максимального разделяющего запаса
    • SGD: Штрафы
    • SGD: Взвешенные выборки
    • SGD: выпуклые функции потерь
    • Регрессия Тейла-Сена
    • Регрессия Твиди для страховых случаев
  • Инспекция
    • Распространённые ошибки в интерпретации коэффициентов линейных моделей
    • Неспособность машинного обучения выводить причинно-следственные связи
    • Графики частичной зависимости и индивидуального условного ожидания
    • Важность перестановок против важности признаков случайного леса (MDI)
    • Важность перестановок с мультиколлинеарными или коррелированными признаками
  • Аппроксимация ядра
    • Масштабируемое обучение с полиномиальной аппроксимацией ядра
  • Обучение многообразию
    • Сравнение методов обучения многообразий
    • Методы обучения многообразий на разрезанной сфере
    • Обучение многообразию на рукописных цифрах: Locally Linear Embedding, Isomap…
    • load_files
    • Снижение размерности Swiss Roll и Swiss-Hole
    • t-SNE: Влияние различных значений perplexity на форму
  • Разное
    • Расширенное построение графиков с частичной зависимостью
    • Сравнение алгоритмов обнаружения аномалий для выявления выбросов на игрушечных наборах данных
    • Сравнение ядерной регрессии гребня и SVR
    • Отображение конвейеров
    • Отображение оценщиков и сложных конвейеров
    • Оценка оценщиков обнаружения выбросов
    • Аппроксимация явного отображения признаков для RBF-ядер
    • Завершение лица с помощью многоканальных оценщиков
    • Представляем set_output API
    • Изотоническая регрессия
    • Маршрутизация метаданных
    • Многометочная классификация
    • Кривая ROC с API визуализации
    • Граница Джонсона-Линденштрауса для вложения с помощью случайных проекций
    • Визуализации с объектами Display
  • Импутация пропущенных значений
    • Заполнение пропущенных значений перед построением оценщика
    • Заполнение пропущенных значений с вариантами IterativeImputer
  • Выбор модели
    • Баланс сложности модели и кросс-валидационной оценки
    • Graham Clenaghan
    • Сравнение рандомизированного поиска и поиска по сетке для оценки гиперпараметров
    • Сравнение между поиском по сетке и последовательным сокращением вдвое
    • Пользовательская стратегия повторного обучения для поиска по сетке с кросс-валидацией
    • Демонстрация многометрической оценки на cross_val_score и GridSearchCV
    • Кривая компромисса ошибок обнаружения (DET)
    • Влияние регуляризации модели на ошибку обучения и тестирования
    • Оценить производительность классификатора с помощью матрицы ошибок
    • Многоклассовая рабочая характеристика приемника (ROC)
    • Вложенная и невложенная перекрестная проверка
    • Построение перекрестно проверенных предсказаний
    • Построение кривых обучения и проверка масштабируемости моделей
    • Пост-фактумная настройка точки отсечения функции принятия решений
    • Последующая настройка порога принятия решений для обучения с учетом стоимости
    • Precision-Recall
    • Рабочая характеристика приёмника (ROC) с перекрёстной проверкой
    • Примерный пайплайн для извлечения и оценки текстовых признаков
    • Статистическое сравнение моделей с использованием поиска по сетке
    • Последовательные итерации деления пополам
    • Тест с перестановками для значимости оценки классификации
    • Недообучение vs. Переобучение
    • Визуализация поведения кросс-валидации в scikit-learn
  • Многоклассовые методы
    • Обзор мета-оценщиков для многоклассового обучения
  • Многовариантные методы
    • Многометочная классификация с использованием цепочки классификаторов
  • Ближайшие соседи
    • Приближенные ближайшие соседи в TSNE
    • Кэширование ближайших соседей
    • Сравнение ближайших соседей с анализом компонент соседства и без него
    • Снижение размерности с помощью анализа компонентов соседства
    • Оценка плотности ядра распределения видов
    • Оценка плотности ядра
    • Классификация по ближайшему центроиду
    • Классификация методом ближайших соседей
    • Регрессия методом ближайших соседей
    • Иллюстрация анализа компонентов соседства
    • Обнаружение новизны с помощью локального фактора выбросов (LOF)
    • Обнаружение выбросов с помощью фактора локальных выбросов (LOF)
    • Простое одномерное ядерное сглаживание плотности
  • Нейронные сети
    • Сравнение стохастических стратегий обучения для MLPClassifier
    • Признаки ограниченной машины Больцмана для классификации цифр
    • Изменение регуляризации в многослойном перцептроне
    • Visualization of MLP weights on MNIST
  • Конвейеры и составные оценщики
    • Трансформер столбцов с разнородными источниками данных
    • Трансформер столбцов со смешанными типами
    • Объединение нескольких методов извлечения признаков
    • Эффект преобразования целей в регрессионной модели
    • Конвейеризация: объединение PCA и логистической регрессии
    • Выбор уменьшения размерности с помощью Pipeline и GridSearchCV
  • Предобработка
    • Сравнение влияния различных масштабировщиков на данные с выбросами
    • Сравнение Target Encoder с другими кодировщиками
    • Демонстрация различных стратегий KBinsDiscretizer
    • Дискретизация признаков
    • Важность масштабирования признаков
    • Преобразует данные в нормальное распределение
    • Внутренняя перекрестная подгонка Target Encoder
    • Использование KBinsDiscretizer для дискретизации непрерывных признаков
  • Полуавтоматическая классификация
    • Граница решения полуконтролируемых классификаторов против SVM на наборе данных Iris
    • Влияние изменения порога для самообучения
    • Распространение меток по кругам: Обучение сложной структуре
    • Распространение меток цифр: Активное обучение
    • Распространение меток на цифрах: Демонстрация производительности
    • Полу-контролируемая классификация на текстовом наборе данных
  • Метод опорных векторов
    • Одноклассовый SVM с нелинейным ядром (RBF)
    • Построение границ классификации с различными ядрами SVM
    • Построение различных классификаторов SVM на наборе данных iris
    • Построить опорные векторы в LinearSVC
    • Параметры SVM с RBF-ядром
    • Пример границ SVM
    • Пример разрешения ничьей в SVM
    • SVM с пользовательским ядром
    • SVM-Anova: SVM с одномерным отбором признаков
    • SVM: Разделяющая гиперплоскость с максимальным зазором
    • SVM: Разделяющая гиперплоскость для несбалансированных классов
    • SVM: Взвешенные образцы
    • Масштабирование параметра регуляризации для SVC
    • Регрессия на основе метода опорных векторов (SVR) с использованием линейных и нелинейных ядер
  • Работа с текстовыми документами
    • Классификация текстовых документов с использованием разреженных признаков
    • Кластеризация текстовых документов с использованием k-means
    • Сравнение FeatureHasher и DictVectorizer
  • Примеры
  • Разработка оценщиков

Разработка оценщиков#

Примеры, касающиеся разработки пользовательского оценщика.

__sklearn_is_fitted__ как API для разработчиков

__sklearn_is_fitted__ как API для разработчиков

предыдущий

Разреженное кодирование с предвычисленным словарём

next

__sklearn_is_fitted__ как API для разработчиков

© Авторские права 2007 - 2025, разработчики scikit-learn (лицензия BSD).