Руководство пользователя#
- 1. Обучение с учителем
- 1.1. Линейные модели
- 1.1.1. Метод наименьших квадратов
- 1.1.2. Ридж-регрессия и классификация
- 1.1.3. Лассо
- 1.1.4. Многозадачный Lasso
- 1.1.5. Elastic-Net
- 1.1.6. Многозадачный Elastic-Net
- 1.1.7. Регрессия наименьшего угла
- 1.1.8. LARS Lasso
- 1.1.9. Ортогональное сопоставление преследования (OMP)
- 1.1.10. Байесовская регрессия
- 1.1.11. Логистическая регрессия
- 1.1.12. Обобщенные линейные модели
- 1.1.13. Стохастический градиентный спуск - SGD
- 1.1.14. Робастная регрессия: выбросы и ошибки моделирования
- 1.1.15. Квантильная регрессия
- 1.1.16. Полиномиальная регрессия: расширение линейных моделей с помощью базисных функций
- 1.2. Линейный и квадратичный дискриминантный анализ
- 1.6.7.1. Классификация
- 1.4. Методы опорных векторов
- 1.5. Стохастический градиентный спуск
- 1.6. Ближайшие соседи
- 1.7. Гауссовские процессы
- 1.8. Перекрёстное разложение
- 1.9. Наивный Байес
- 1.9.1. Наивный байесовский классификатор с гауссовским распределением
- 1.9.2. Мультиномиальный наивный байесовский классификатор
- 1.9.3. Комплементарный наивный байесовский классификатор
- 1.9.4. Bernoulli Naive Bayes
- 1.9.5. Категориальный наивный байесовский классификатор
- 1.9.6. Построение наивной байесовской модели вне ядра
- 1.10. Деревья решений
- 1.10.1. Классификация
- 1.10.2. Регрессия
- 1.10.3. Многовариантные задачи
- 1.10.4. Сложность
- 1.10.5. Советы по практическому использованию
- 1.10.6. Алгоритмы деревьев: ID3, C4.5, C5.0 и CART
- 1.10.7. Математическая формулировка
- 1.10.8. Поддержка пропущенных значений
- 1.10.9. Минимальная обрезка по стоимости-сложности
- 1.11. Ансамбли: Градиентный бустинг, случайные леса, бэггинг, голосование, стекинг
- 1.12. Многоклассовые и многовариантные алгоритмы
- 1.13. Выбор признаков
- 1.14. Полуконтролируемое обучение
- 1.15. Изотоническая регрессия
- 1.16. Вероятностная калибровка
- 1.17. Модели нейронных сетей (с учителем)
- 1.1. Линейные модели
- 2. Обучение без учителя
- 2.1. Гауссовские смеси моделей
- 2.2. Обучение многообразий
- 2.2.1. Введение
- 2.2.2. Isomap
- 2.2.3. Локально линейное вложение
- 2.2.4. Модифицированное Локально Линейное Вложение
- 2.2.5. Отображение собственных значений гессиана
- 2.2.6. Спектральное вложение
- 2.2.7. Локальное выравнивание касательного пространства
- 2.2.8. Многомерное шкалирование (MDS)
- 2.2.9. Стохастическое вложение соседей с t-распределением (t-SNE)
- 2.2.10. Советы по практическому использованию
- 2.3. Кластеризация
- 2.4. Бикластеризация
- 2.5. Разложение сигналов на компоненты (проблемы матричной факторизации)
- 2.5.1. Метод главных компонент (PCA)
- 2.5.2. Анализ главных компонентов с ядром (kPCA)
- 2.5.3. Усеченное сингулярное разложение и латентно-семантический анализ
- 2.5.4. Словарное обучение
- ) остаются привязанными к обучающему набору, который должен храниться для вывода.
- 2.5.6. Анализ независимых компонент (ICA)
- 2.5.7. Неотрицательное матричное разложение (NMF или NNMF)
- 2.5.8. Латентное распределение Дирихле (LDA)
- 2.6. Оценка ковариации
- 2.7. Обнаружение новизны и выбросов
- 2.8. Оценка плотности
- 2.9. Модели нейронных сетей (без учителя)
- 3. Выбор и оценка модели
- 3.1. Кросс-валидация: оценка производительности оценщика
- 3.2. Настройка гиперпараметров оценщика
- 3.3. Настройка порога принятия решения для предсказания класса
- 3.4. Метрики и оценка: количественная оценка качества предсказаний
- 3.4.1. Какую функцию оценки следует использовать?
- 3.4.2. Обзор API оценки
- 3.4.3. The
scoringпараметр: определение правил оценки модели - 3.4.4. Метрики классификации
- 3.4.5. Метрики ранжирования для многометочной классификации
- 3.4.6. Метрики регрессии
- 3.4.7. Метрики кластеризации
- 3.4.8. Фиктивные оценщики
- 3.5. Кривые валидации: построение оценок для оценки моделей
- Сгенерировать набор данных Swiss Roll.
- 5. Инспекция
- 6. Визуализации
- 7. Преобразования наборов данных
- 7.1. Конвейеры и составные оценщики
- 7.2. Извлечение признаков
- 7.3. Предобработка данных
- 7.3.1. Стандартизация, или удаление среднего и масштабирование дисперсии
- 7.3.2. Нелинейное преобразование
- 7.3.3. Нормализация
- 7.3.4. Кодирование категориальных признаков
- 7.3.5. Дискретизация
- 7.3.6. Импутация пропущенных значений
- 7.3.7. Генерация полиномиальных признаков
- 7.3.8. Пользовательские преобразователи
- 7.4. Вменение пропущенных значений
- 7.4.1. Одномерное vs. Многомерное заполнение
- 7.4.2. Одномерная импутация признаков
- 7.4.3. Многомерное заполнение пропусков в признаках
- 7.4.4. Импутация ближайших соседей
- 7.4.5. Сохранение постоянного количества признаков
- 7.4.6. Отметка импутированных значений
- 7.4.7. Оценщики, которые обрабатывают значения NaN
- 7.5. Неконтролируемое снижение размерности
- 7.6. Случайное проецирование
- 7.7. Аппроксимация ядра
- 7.8. Парные метрики, сходства и ядра
- 7.9. Преобразование целевой переменной предсказания (
y)
- 8. Утилиты загрузки наборов данных
- 8.1. Игрушечные наборы данных
- 8.2. Реальные наборы данных
- 8.2.1. Набор данных лиц Olivetti
- 8.2.2. Текстовый набор данных 20 newsgroups
- 8.2.3. Набор данных для распознавания лиц Labeled Faces in the Wild
- 8.2.4. Типы лесного покрова
- 8.2.5. Набор данных RCV1
- 8.2.6. Набор данных Kddcup 99
- 8.2.7. Набор данных California Housing
- 8.2.8. Набор данных о распределении видов
- 8.3. Сгенерированные наборы данных
- 8.4. Загрузка других наборов данных
- 9. Вычисления с scikit-learn
- 10. Сохранение модели
- 11. Распространенные ошибки и рекомендуемые практики
- 12. Диспетчеризация
- 13. Выбор подходящего оценщика
- 14. Внешние ресурсы, видео и выступления