zero_one_loss#

sklearn.metrics.zero_one_loss(y_true, y_pred, *, нормализовать=True, sample_weight=None)[источник]#

Потеря классификации ноль-один.

Если normalize равен True, возвращает долю ошибочных классификаций, иначе возвращает количество ошибочных классификаций. Лучшая производительность 0.

Подробнее в Руководство пользователя.

Параметры:
y_true1d array-like, или массив индикаторов меток / разреженная матрица

Истинные (правильные) метки. Разреженная матрица поддерживается только когда метки имеют многометочный тип.

y_pred1d array-like, или массив индикаторов меток / разреженная матрица

Предсказанные метки, как возвращенные классификатором. Разреженная матрица поддерживается только когда метки имеют многометочный тип.

нормализоватьbool, по умолчанию=True

Если False, возвращает количество ошибочных классификаций. В противном случае возвращает долю ошибочных классификаций.

sample_weightarray-like формы (n_samples,), по умолчанию=None

Веса выборок.

Возвращает:
потеряfloat

Если normalize == True, возвращает долю ошибочных классификаций, иначе возвращает количество ошибочных классификаций.

Смотрите также

accuracy_score

Вычисляет показатель точности. По умолчанию функция возвращает долю правильных прогнозов, деленную на общее количество прогнозов.

hamming_loss

Вычислить среднюю потерю Хэмминга или расстояние Хэмминга между двумя наборами образцов.

jaccard_score

Вычисляет коэффициент сходства Жаккара.

Примечания

В многометочной классификации функция zero_one_loss соответствует потере подмножества ноль-один: для каждого образца весь набор меток должен быть правильно предсказан, иначе потеря для этого образца равна единице.

Примеры

>>> from sklearn.metrics import zero_one_loss
>>> y_pred = [1, 2, 3, 4]
>>> y_true = [2, 2, 3, 4]
>>> zero_one_loss(y_true, y_pred)
0.25
>>> zero_one_loss(y_true, y_pred, normalize=False)
1.0

В случае многометочной классификации с бинарными индикаторами меток:

>>> import numpy as np
>>> zero_one_loss(np.array([[0, 1], [1, 1]]), np.ones((2, 2)))
0.5