zero_one_loss#
- sklearn.metrics.zero_one_loss(y_true, y_pred, *, нормализовать=True, sample_weight=None)[источник]#
Потеря классификации ноль-один.
Если normalize равен
True, возвращает долю ошибочных классификаций, иначе возвращает количество ошибочных классификаций. Лучшая производительность 0.Подробнее в Руководство пользователя.
- Параметры:
- y_true1d array-like, или массив индикаторов меток / разреженная матрица
Истинные (правильные) метки. Разреженная матрица поддерживается только когда метки имеют многометочный тип.
- y_pred1d array-like, или массив индикаторов меток / разреженная матрица
Предсказанные метки, как возвращенные классификатором. Разреженная матрица поддерживается только когда метки имеют многометочный тип.
- нормализоватьbool, по умолчанию=True
Если
False, возвращает количество ошибочных классификаций. В противном случае возвращает долю ошибочных классификаций.- sample_weightarray-like формы (n_samples,), по умолчанию=None
Веса выборок.
- Возвращает:
- потеряfloat
Если
normalize == True, возвращает долю ошибочных классификаций, иначе возвращает количество ошибочных классификаций.
Смотрите также
accuracy_scoreВычисляет показатель точности. По умолчанию функция возвращает долю правильных прогнозов, деленную на общее количество прогнозов.
hamming_lossВычислить среднюю потерю Хэмминга или расстояние Хэмминга между двумя наборами образцов.
jaccard_scoreВычисляет коэффициент сходства Жаккара.
Примечания
В многометочной классификации функция zero_one_loss соответствует потере подмножества ноль-один: для каждого образца весь набор меток должен быть правильно предсказан, иначе потеря для этого образца равна единице.
Примеры
>>> from sklearn.metrics import zero_one_loss >>> y_pred = [1, 2, 3, 4] >>> y_true = [2, 2, 3, 4] >>> zero_one_loss(y_true, y_pred) 0.25 >>> zero_one_loss(y_true, y_pred, normalize=False) 1.0
В случае многометочной классификации с бинарными индикаторами меток:
>>> import numpy as np >>> zero_one_loss(np.array([[0, 1], [1, 1]]), np.ones((2, 2))) 0.5