Перейти к основному содержанию
Ctrl+K
scikit-learn homepage scikit-learn homepage
  • Установить
  • Руководство пользователя
  • API
  • Примеры
  • Сообщество
    • Начало работы
    • История выпусков
    • Глоссарий
    • Разработка
    • Часто задаваемые вопросы
    • Поддержка
    • Связанные проекты
    • Дорожная карта
    • Управление
    • О нас
  • GitHub
  • Установить
  • Руководство пользователя
  • API
  • Примеры
  • Сообщество
  • Начало работы
  • История выпусков
  • Глоссарий
  • Разработка
  • Часто задаваемые вопросы
  • Поддержка
  • Связанные проекты
  • Дорожная карта
  • Управление
  • О нас
  • GitHub

Навигация по разделам

  • Основные изменения в выпуске
    • Основные нововведения в scikit-learn 1.8
    • Основные новости выпуска scikit-learn 1.7
    • Основные новости выпуска scikit-learn 1.6
    • Основные новости выпуска scikit-learn 1.5
    • Основные нововведения выпуска scikit-learn 1.4
    • Основные изменения в выпуске scikit-learn 1.3
    • Основные новости выпуска scikit-learn 1.2
    • Основные изменения в выпуске scikit-learn 1.1
    • Основные новости выпуска scikit-learn 1.0
    • Основные нововведения scikit-learn 0.24
    • Основные новости выпуска scikit-learn 0.23
    • Основные нововведения в выпуске scikit-learn 0.22
  • Бикластеризация
    • Демонстрация алгоритма Spectral Biclustering
    • Демонстрация алгоритма спектральной совместной кластеризации
    • Бикластеризация документов с помощью алгоритма спектральной совместной кластеризации
  • Калибровка
    • Сравнение калибровки классификаторов
    • Кривые калибровки вероятности
    • Калибровка вероятностей для классификации на 3 класса
    • Калибровка вероятностей классификаторов
  • Классификация
    • Сравнение классификаторов
    • Линейный и квадратичный дискриминантный анализ с эллипсоидом ковариации
    • Нормальный, Ledoit-Wolf и OAS линейный дискриминантный анализ для классификации
    • Построить график вероятности классификации
    • Распознавание рукописных цифр
  • Кластеризация
    • Демонстрация кластеризации K-Means на данных рукописных цифр
    • Демонстрация структурированной иерархической кластеризации Уорда на изображении монет
    • Демонстрация алгоритма кластеризации mean-shift
    • Коррекция на случайность в оценке производительности кластеризации
    • Агломеративная кластеризация с разными метриками
    • Пример инициализации K-Means++
    • Сравнение производительности биссекционного K-средних и обычного K-средних
    • Сравнение BIRCH и MiniBatchKMeans
    • Сравнение различных алгоритмов кластеризации на игрушечных наборах данных
    • Сравнение различных методов иерархической связи на игрушечных наборах данных
    • Сравнение алгоритмов кластеризации K-Means и MiniBatchKMeans
    • Демонстрация алгоритма кластеризации DBSCAN
    • Демонстрация алгоритма кластеризации HDBSCAN
    • Демонстрация алгоритма кластеризации OPTICS
    • Демонстрация алгоритма кластеризации с распространением аффинности
    • Демонстрация предположений k-means
    • Эмпирическая оценка влияния инициализации k-means
    • Агломерация признаков
    • Агломерация признаков против одномерного отбора
    • Иерархическая кластеризация со структурой и без
    • Индуктивная кластеризация
    • Онлайн-обучение словаря частей лиц
    • Построить дендрограмму иерархической кластеризации
    • Сегментация изображения греческих монет на регионы
    • Выбор количества кластеров с помощью анализа силуэта для кластеризации KMeans
    • Спектральная кластеризация для сегментации изображений
    • Различные агломеративные кластеризации на 2D-вложении цифр
    • Пример векторного квантования
  • Оценка ковариации
    • Оценка Ледойта-Вольфа против OAS оценки
    • Робастная оценка ковариации и релевантность расстояний Махаланобиса
    • Робастная vs эмпирическая оценка ковариации
    • Оценка ковариации сжатием: LedoitWolf vs OAS и максимальное правдоподобие
    • Оценка разреженной обратной ковариации
  • Перекрестное разложение
    • Сравнить методы перекрёстного разложения
    • Регрессия на главных компонентах против регрессии методом частичных наименьших квадратов
  • Примеры наборов данных
    • Построение случайно сгенерированного многометочного набора данных
  • Деревья решений
    • Регрессия дерева решений
    • Построить поверхность решений деревьев решений, обученных на наборе данных ирисов
    • Пост-обрезка деревьев решений с обрезкой по стоимости сложности
    • Понимание структуры дерева решений
  • Разложение
    • Разделение слепых источников с использованием FastICA
    • Сравнение LDA и PCA 2D проекции набора данных Iris
    • Разложения набора данных Faces
    • Факторный анализ (с вращением) для визуализации паттернов
    • FastICA на 2D облаках точек
    • Удаление шума изображений с использованием обучения словаря
    • Инкрементальный PCA
    • Ядерный PCA
    • Выбор модели с вероятностным PCA и факторным анализом (FA)
    • Анализ главных компонент (PCA) на наборе данных Iris
    • Разреженное кодирование с предвычисленным словарём
  • Разработка оценщиков
    • __sklearn_is_fitted__ как API для разработчиков
  • Ансамблевые методы
    • Поддержка категориальных признаков в градиентном бустинге
    • Объедините предикторы с помощью стекинга
    • Сравнение моделей случайных лесов и градиентного бустинга на гистограммах
    • Сравнение случайных лесов и мета-оценщика с множественным выходом
    • Регрессия решающего дерева с AdaBoost
    • Ранняя остановка в градиентном бустинге
    • Важность признаков с использованием леса деревьев
    • Преобразования признаков с ансамблями деревьев
    • Признаки в деревьях с градиентным бустингом на гистограммах
    • Оценки Gradient Boosting Out-of-Bag
    • Градиентный бустинг для регрессии
    • Регуляризация градиентного бустинга
    • Преобразование признаков с хешированием с использованием полностью случайных деревьев
    • Пример IsolationForest
    • Монотонные ограничения
    • Многоклассовые деревья решений с бустингом AdaBoost
    • Ошибки OOB для случайных лесов
    • Построить индивидуальные и голосующие регрессионные предсказания
    • Построить поверхности решений ансамблей деревьев на наборе данных ирисов
    • Интервалы прогнозирования для регрессии градиентного бустинга
    • Один оценщик против бэггинга: декомпозиция смещения-дисперсии
    • Двухклассовый AdaBoost
    • Визуализация вероятностных предсказаний VotingClassifier
  • Примеры на основе реальных наборов данных
    • Компрессионное зондирование: реконструкция томографии с априорным распределением L1 (Lasso)
    • Пример распознавания лиц с использованием собственных лиц и SVM
    • Удаление шума с изображения с использованием ядерного PCA
    • Лаггированные признаки для прогнозирования временных рядов
    • Влияние сложности модели
    • Классификация текстовых документов вне памяти
    • Обнаружение выбросов на реальном наборе данных
    • Задержка предсказания
    • Моделирование распределения видов
    • Инженерия временных признаков
    • Извлечение тем с использованием неотрицательной матричной факторизации и латентного размещения Дирихле
    • Визуализация структуры фондового рынка
    • Главный собственный вектор Википедии
  • Выбор признаков
    • Сравнение F-теста и взаимной информации
    • Основанный на модели и последовательный отбор признаков
    • Конвейер ANOVA SVM
    • Рекурсивное исключение признаков
    • Рекурсивное исключение признаков с перекрестной проверкой
    • Одномерный отбор признаков
  • Замороженные оценщики
    • Примеры использования FrozenEstimator
  • Гауссовские смеси моделей
    • Анализ вариации байесовской гауссовой смеси с априорным типом концентрации
    • Оценка плотности для гауссовской смеси
    • Методы инициализации GMM
    • Ковариации GMM
    • Эллипсоиды гауссовской смеси
    • Выбор модели гауссовской смеси
    • Гауссова смесь моделей синусоидальной кривой
  • Гауссовский процесс для машинного обучения
    • Способность гауссовского процесса регрессии (GPR) оценивать уровень шума данных
    • Сравнение ядерной гребневой регрессии и регрессии по методу Гауссовских процессов
    • Прогнозирование уровня CO2 на наборе данных Mona Loa с использованием гауссовской регрессии (GPR)
    • Регрессия гауссовских процессов: базовый вводный пример
    • Гауссовский процесс классификации (GPC) на наборе данных iris
    • Гауссовские процессы на дискретных структурах данных
    • Иллюстрация классификации гауссовским процессом (GPC) на наборе данных XOR
    • Иллюстрация априорного и апостериорного гауссовских процессов для различных ядер
    • Изолинии равной вероятности для классификации гауссовских процессов (GPC)
    • Вероятностные предсказания с гауссовским процессом классификации (GPC)
  • Обобщенные линейные модели
    • Сравнение линейных байесовских регрессоров
    • Аппроксимация кривой с использованием байесовской гребневой регрессии
    • Границы решений мультиномиальной и логистической регрессии One-vs-Rest
    • Ранняя остановка стохастического градиентного спуска
    • Обучение Elastic Net с предвычисленной матрицей Грама и взвешенными выборками
    • HuberRegressor против Ridge на наборе данных с сильными выбросами
    • Совместный отбор признаков с многозадачным Lasso
    • L1-штраф и разреженность в логистической регрессии
    • Модели на основе L1 для разреженных сигналов
    • Выбор модели Lasso с помощью информационных критериев
    • Выбор модели Lasso: AIC-BIC / перекрёстная проверка
    • Lasso на плотных и разреженных данных
    • Пути Lasso, Lasso-LARS и Elastic Net
    • Классификация MNIST с использованием мультиномиальной логистической регрессии + L1
    • Многоклассовая разреженная логистическая регрессия на 20newsgroups
    • Метод наименьших квадратов с неотрицательными ограничениями
    • One-Class SVM против One-Class SVM с использованием стохастического градиентного спуска
    • Метод наименьших квадратов и гребневая регрессия
    • Orthogonal Matching Pursuit
    • Построение коэффициентов Ridge как функции регуляризации
    • Построение многоклассового SGD на наборе данных iris
    • Пуассоновская регрессия и ненормальные потери
    • Полиномиальная и сплайновая интерполяция
    • Квантильная регрессия
    • Регуляризационный путь L1-логистической регрессии
    • Коэффициенты Ridge как функция L2-регуляризации
    • Робастная оценка линейной модели
    • Робастная оценка линейной модели с использованием RANSAC
    • SGD: Гиперплоскость максимального разделяющего запаса
    • SGD: Штрафы
    • SGD: Взвешенные выборки
    • SGD: выпуклые функции потерь
    • Регрессия Тейла-Сена
    • Регрессия Твиди для страховых случаев
  • Инспекция
    • Распространённые ошибки в интерпретации коэффициентов линейных моделей
    • Неспособность машинного обучения выводить причинно-следственные связи
    • Графики частичной зависимости и индивидуального условного ожидания
    • Важность перестановок против важности признаков случайного леса (MDI)
    • Важность перестановок с мультиколлинеарными или коррелированными признаками
  • Аппроксимация ядра
    • Масштабируемое обучение с полиномиальной аппроксимацией ядра
  • Обучение многообразию
    • Сравнение методов обучения многообразий
    • Методы обучения многообразий на разрезанной сфере
    • Обучение многообразию на рукописных цифрах: Locally Linear Embedding, Isomap…
    • load_files
    • Снижение размерности Swiss Roll и Swiss-Hole
    • t-SNE: Влияние различных значений perplexity на форму
  • Разное
    • Расширенное построение графиков с частичной зависимостью
    • Сравнение алгоритмов обнаружения аномалий для выявления выбросов на игрушечных наборах данных
    • Сравнение ядерной регрессии гребня и SVR
    • Отображение конвейеров
    • Отображение оценщиков и сложных конвейеров
    • Оценка оценщиков обнаружения выбросов
    • Аппроксимация явного отображения признаков для RBF-ядер
    • Завершение лица с помощью многоканальных оценщиков
    • Представляем set_output API
    • Изотоническая регрессия
    • Маршрутизация метаданных
    • Многометочная классификация
    • Кривая ROC с API визуализации
    • Граница Джонсона-Линденштрауса для вложения с помощью случайных проекций
    • Визуализации с объектами Display
  • Импутация пропущенных значений
    • Заполнение пропущенных значений перед построением оценщика
    • Заполнение пропущенных значений с вариантами IterativeImputer
  • Выбор модели
    • Баланс сложности модели и кросс-валидационной оценки
    • Graham Clenaghan
    • Сравнение рандомизированного поиска и поиска по сетке для оценки гиперпараметров
    • Сравнение между поиском по сетке и последовательным сокращением вдвое
    • Пользовательская стратегия повторного обучения для поиска по сетке с кросс-валидацией
    • Демонстрация многометрической оценки на cross_val_score и GridSearchCV
    • Кривая компромисса ошибок обнаружения (DET)
    • Влияние регуляризации модели на ошибку обучения и тестирования
    • Оценить производительность классификатора с помощью матрицы ошибок
    • Многоклассовая рабочая характеристика приемника (ROC)
    • Вложенная и невложенная перекрестная проверка
    • Построение перекрестно проверенных предсказаний
    • Построение кривых обучения и проверка масштабируемости моделей
    • Пост-фактумная настройка точки отсечения функции принятия решений
    • Последующая настройка порога принятия решений для обучения с учетом стоимости
    • Precision-Recall
    • Рабочая характеристика приёмника (ROC) с перекрёстной проверкой
    • Примерный пайплайн для извлечения и оценки текстовых признаков
    • Статистическое сравнение моделей с использованием поиска по сетке
    • Последовательные итерации деления пополам
    • Тест с перестановками для значимости оценки классификации
    • Недообучение vs. Переобучение
    • Визуализация поведения кросс-валидации в scikit-learn
  • Многоклассовые методы
    • Обзор мета-оценщиков для многоклассового обучения
  • Многовариантные методы
    • Многометочная классификация с использованием цепочки классификаторов
  • Ближайшие соседи
    • Приближенные ближайшие соседи в TSNE
    • Кэширование ближайших соседей
    • Сравнение ближайших соседей с анализом компонент соседства и без него
    • Снижение размерности с помощью анализа компонентов соседства
    • Оценка плотности ядра распределения видов
    • Оценка плотности ядра
    • Классификация по ближайшему центроиду
    • Классификация методом ближайших соседей
    • Регрессия методом ближайших соседей
    • Иллюстрация анализа компонентов соседства
    • Обнаружение новизны с помощью локального фактора выбросов (LOF)
    • Обнаружение выбросов с помощью фактора локальных выбросов (LOF)
    • Простое одномерное ядерное сглаживание плотности
  • Нейронные сети
    • Сравнение стохастических стратегий обучения для MLPClassifier
    • Признаки ограниченной машины Больцмана для классификации цифр
    • Изменение регуляризации в многослойном перцептроне
    • Visualization of MLP weights on MNIST
  • Конвейеры и составные оценщики
    • Трансформер столбцов с разнородными источниками данных
    • Трансформер столбцов со смешанными типами
    • Объединение нескольких методов извлечения признаков
    • Эффект преобразования целей в регрессионной модели
    • Конвейеризация: объединение PCA и логистической регрессии
    • Выбор уменьшения размерности с помощью Pipeline и GridSearchCV
  • Предобработка
    • Сравнение влияния различных масштабировщиков на данные с выбросами
    • Сравнение Target Encoder с другими кодировщиками
    • Демонстрация различных стратегий KBinsDiscretizer
    • Дискретизация признаков
    • Важность масштабирования признаков
    • Преобразует данные в нормальное распределение
    • Внутренняя перекрестная подгонка Target Encoder
    • Использование KBinsDiscretizer для дискретизации непрерывных признаков
  • Полуавтоматическая классификация
    • Граница решения полуконтролируемых классификаторов против SVM на наборе данных Iris
    • Влияние изменения порога для самообучения
    • Распространение меток по кругам: Обучение сложной структуре
    • Распространение меток цифр: Активное обучение
    • Распространение меток на цифрах: Демонстрация производительности
    • Полу-контролируемая классификация на текстовом наборе данных
  • Метод опорных векторов
    • Одноклассовый SVM с нелинейным ядром (RBF)
    • Построение границ классификации с различными ядрами SVM
    • Построение различных классификаторов SVM на наборе данных iris
    • Построить опорные векторы в LinearSVC
    • Параметры SVM с RBF-ядром
    • Пример границ SVM
    • Пример разрешения ничьей в SVM
    • SVM с пользовательским ядром
    • SVM-Anova: SVM с одномерным отбором признаков
    • SVM: Разделяющая гиперплоскость с максимальным зазором
    • SVM: Разделяющая гиперплоскость для несбалансированных классов
    • SVM: Взвешенные образцы
    • Масштабирование параметра регуляризации для SVC
    • Регрессия на основе метода опорных векторов (SVR) с использованием линейных и нелинейных ядер
  • Работа с текстовыми документами
    • Классификация текстовых документов с использованием разреженных признаков
    • Кластеризация текстовых документов с использованием k-means
    • Сравнение FeatureHasher и DictVectorizer
  • Примеры
  • Примеры наборов данных

Примеры наборов данных#

Примеры, касающиеся sklearn.datasets модуль.

Построение случайно сгенерированного многометочного набора данных

Построение случайно сгенерированного многометочного набора данных

предыдущий

Регрессия на главных компонентах против регрессии методом частичных наименьших квадратов

next

Построение случайно сгенерированного многометочного набора данных

© Авторские права 2007 - 2025, разработчики scikit-learn (лицензия BSD).