1. Обучение с учителем#
- 1.1. Линейные модели
- 1.1.1. Метод наименьших квадратов
- 1.1.2. Ридж-регрессия и классификация
- 1.1.3. Лассо
- 1.1.4. Многозадачный Lasso
- 1.1.5. Elastic-Net
- 1.1.6. Многозадачный Elastic-Net
- 1.1.7. Регрессия наименьшего угла
- 1.1.8. LARS Lasso
- 1.1.9. Ортогональное сопоставление преследования (OMP)
- 1.1.10. Байесовская регрессия
- 1.1.11. Логистическая регрессия
- 1.1.12. Обобщенные линейные модели
- 1.1.13. Стохастический градиентный спуск - SGD
- 1.1.14. Робастная регрессия: выбросы и ошибки моделирования
- 1.1.15. Квантильная регрессия
- 1.1.16. Полиномиальная регрессия: расширение линейных моделей с помощью базисных функций
- 1.2. Линейный и квадратичный дискриминантный анализ
- 1.6.7.1. Классификация
- 1.4. Методы опорных векторов
- 1.5. Стохастический градиентный спуск
- 1.6. Ближайшие соседи
- 1.7. Гауссовские процессы
- 1.8. Перекрёстное разложение
- 1.9. Наивный Байес
- 1.9.1. Наивный байесовский классификатор с гауссовским распределением
- 1.9.2. Мультиномиальный наивный байесовский классификатор
- 1.9.3. Комплементарный наивный байесовский классификатор
- 1.9.4. Bernoulli Naive Bayes
- 1.9.5. Категориальный наивный байесовский классификатор
- 1.9.6. Построение наивной байесовской модели вне ядра
- 1.10. Деревья решений
- 1.10.1. Классификация
- 1.10.2. Регрессия
- 1.10.3. Многовариантные задачи
- 1.10.4. Сложность
- 1.10.5. Советы по практическому использованию
- 1.10.6. Алгоритмы деревьев: ID3, C4.5, C5.0 и CART
- 1.10.7. Математическая формулировка
- 1.10.8. Поддержка пропущенных значений
- 1.10.9. Минимальная обрезка по стоимости-сложности
- 1.11. Ансамбли: Градиентный бустинг, случайные леса, бэггинг, голосование, стекинг
- 1.12. Многоклассовые и многовариантные алгоритмы
- 1.13. Выбор признаков
- 1.14. Полуконтролируемое обучение
- 1.15. Изотоническая регрессия
- 1.16. Вероятностная калибровка
- 1.17. Модели нейронных сетей (с учителем)