Регрессия дерева решений#

В этом примере мы демонстрируем влияние изменения максимальной глубины дерева решений на то, как оно подгоняется к данным. Мы выполняем это один раз для задачи одномерной регрессии и один раз для задачи многомерной регрессии.

# Authors: The scikit-learn developers
# SPDX-License-Identifier: BSD-3-Clause

Дерево решений для задачи одномерной регрессии#

Здесь мы обучаем дерево на задаче одномерной регрессии.

The деревья решений используется для подбора синусоидальной кривой с добавлением шумных наблюдений. В результате он изучает локальные линейные регрессии, аппроксимирующие синусоиду.

Мы видим, что если максимальная глубина дерева (контролируемая параметром max_depth параметр) установлен слишком высоко, деревья решений изучают слишком мелкие детали обучающих данных и учатся на шуме, то есть переобучаются.

Создать случайный одномерный набор данных#

import numpy as np

rng = np.random.RandomState(1)
X = np.sort(5 * rng.rand(80, 1), axis=0)
y = np.sin(X).ravel()
y[::5] += 3 * (0.5 - rng.rand(16))

Обучить модель регрессии#

параметр

from sklearn.tree import DecisionTreeRegressor

regr_1 = DecisionTreeRegressor(max_depth=2)
regr_2 = DecisionTreeRegressor(max_depth=5)
regr_1.fit(X, y)
regr_2.fit(X, y)
DecisionTreeRegressor(max_depth=5)
В среде Jupyter, пожалуйста, перезапустите эту ячейку, чтобы показать HTML-представление, или доверьтесь блокноту.
На GitHub HTML-представление не может отображаться, попробуйте загрузить эту страницу с помощью nbviewer.org.



Predict#

Получите предсказания на тестовом наборе

X_test = np.arange(0.0, 5.0, 0.01)[:, np.newaxis]
y_1 = regr_1.predict(X_test)
y_2 = regr_2.predict(X_test)

Построить график результатов#

import matplotlib.pyplot as plt

plt.figure()
plt.scatter(X, y, s=20, edgecolor="black", c="darkorange", label="data")
plt.plot(X_test, y_1, color="cornflowerblue", label="max_depth=2", linewidth=2)
plt.plot(X_test, y_2, color="yellowgreen", label="max_depth=5", linewidth=2)
plt.xlabel("data")
plt.ylabel("target")
plt.title("Decision Tree Regression")
plt.legend()
plt.show()
Decision Tree Regression

Как видите, модель с глубиной 5 (желтая) изучает детали обучающих данных до такой степени, что переобучается на шум. С другой стороны, модель с глубиной 2 (синяя) хорошо изучает основные тенденции в данных и не переобучается. В реальных случаях использования необходимо убедиться, что дерево не переобучается на обучающих данных, что можно сделать с помощью перекрестной проверки.

Регрессия дерева решений с многомерными целевыми переменными#

Здесь деревья решений используется для одновременного предсказания зашумленных x и y наблюдения окружности при наличии одного базового признака. В результате он изучает локальные линейные регрессии, аппроксимирующие окружность.

Мы видим, что если максимальная глубина дерева (контролируемая параметром max_depth параметр) установлен слишком высоко, деревья решений изучают слишком мелкие детали обучающих данных и учатся на шуме, то есть переобучаются.

Создать случайный набор данных#

rng = np.random.RandomState(1)
X = np.sort(200 * rng.rand(100, 1) - 100, axis=0)
y = np.array([np.pi * np.sin(X).ravel(), np.pi * np.cos(X).ravel()]).T
y[::5, :] += 0.5 - rng.rand(20, 2)

Обучить модель регрессии#

regr_1 = DecisionTreeRegressor(max_depth=2)
regr_2 = DecisionTreeRegressor(max_depth=5)
regr_3 = DecisionTreeRegressor(max_depth=8)
regr_1.fit(X, y)
regr_2.fit(X, y)
regr_3.fit(X, y)
DecisionTreeRegressor(max_depth=8)
В среде Jupyter, пожалуйста, перезапустите эту ячейку, чтобы показать HTML-представление, или доверьтесь блокноту.
На GitHub HTML-представление не может отображаться, попробуйте загрузить эту страницу с помощью nbviewer.org.



Predict#

Получите предсказания на тестовом наборе

X_test = np.arange(-100.0, 100.0, 0.01)[:, np.newaxis]
y_1 = regr_1.predict(X_test)
y_2 = regr_2.predict(X_test)
y_3 = regr_3.predict(X_test)

Построить график результатов#

plt.figure()
s = 25
plt.scatter(y[:, 0], y[:, 1], c="yellow", s=s, edgecolor="black", label="data")
plt.scatter(
    y_1[:, 0],
    y_1[:, 1],
    c="cornflowerblue",
    s=s,
    edgecolor="black",
    label="max_depth=2",
)
plt.scatter(y_2[:, 0], y_2[:, 1], c="red", s=s, edgecolor="black", label="max_depth=5")
plt.scatter(y_3[:, 0], y_3[:, 1], c="blue", s=s, edgecolor="black", label="max_depth=8")
plt.xlim([-6, 6])
plt.ylim([-6, 6])
plt.xlabel("target 1")
plt.ylabel("target 2")
plt.title("Multi-output Decision Tree Regression")
plt.legend(loc="best")
plt.show()
Multi-output Decision Tree Regression

Как видите, чем выше значение max_depth, тем больше деталей данных улавливается моделью. Однако модель также переобучается на данных и подвержена влиянию шума.

Общее время выполнения скрипта: (0 минут 0.300 секунд)

Связанные примеры

Регрессия решающего дерева с AdaBoost

Регрессия решающего дерева с AdaBoost

Сравнение случайных лесов и мета-оценщика с множественным выходом

Сравнение случайных лесов и мета-оценщика с множественным выходом

Преобразования признаков с ансамблями деревьев

Преобразования признаков с ансамблями деревьев

Построить поверхности решений ансамблей деревьев на наборе данных ирисов

Построить поверхности решений ансамблей деревьев на наборе данных ирисов

Галерея, созданная Sphinx-Gallery