2. Обучение без учителя#
- 2.1. Гауссовские смеси моделей
- 2.2. Обучение многообразий
- 2.2.1. Введение
- 2.2.2. Isomap
- 2.2.3. Локально линейное вложение
- 2.2.4. Модифицированное Локально Линейное Вложение
- 2.2.5. Отображение собственных значений гессиана
- 2.2.6. Спектральное вложение
- 2.2.7. Локальное выравнивание касательного пространства
- 2.2.8. Многомерное шкалирование (MDS)
- 2.2.9. Стохастическое вложение соседей с t-распределением (t-SNE)
- 2.2.10. Советы по практическому использованию
- 2.3. Кластеризация
- 2.4. Бикластеризация
- 2.5. Разложение сигналов на компоненты (проблемы матричной факторизации)
- 2.5.1. Метод главных компонент (PCA)
- 2.5.2. Анализ главных компонентов с ядром (kPCA)
- 2.5.3. Усеченное сингулярное разложение и латентно-семантический анализ
- 2.5.4. Словарное обучение
- ) остаются привязанными к обучающему набору, который должен храниться для вывода.
- 2.5.6. Анализ независимых компонент (ICA)
- 2.5.7. Неотрицательное матричное разложение (NMF или NNMF)
- 2.5.8. Латентное распределение Дирихле (LDA)
- 2.6. Оценка ковариации
- 2.7. Обнаружение новизны и выбросов
- 2.8. Оценка плотности
- 2.9. Модели нейронных сетей (без учителя)