hamming_loss#

sklearn.metrics.hamming_loss(y_true, y_pred, *, sample_weight=None)[источник]#

Вычисляет среднюю потерю Хэмминга.

Потеря Хэмминга — это доля меток, которые предсказаны неверно.

Подробнее в Руководство пользователя.

Параметры:
y_true1d array-like, или массив индикаторов меток / разреженная матрица

Истинные (правильные) метки. Разреженная матрица поддерживается только когда цели имеют тип многометочный тип.

y_pred1d array-like, или массив индикаторов меток / разреженная матрица

Предсказанные метки, возвращаемые классификатором. Разреженная матрица поддерживается только когда цели имеют многометочный тип.

sample_weightarray-like формы (n_samples,), по умолчанию=None

Веса выборок.

Добавлено в версии 0.18.

Возвращает:
потеряfloat

Возвращает среднюю потерю Хэмминга между элементами y_true и y_pred.

Смотрите также

accuracy_score

Вычисляет показатель точности. По умолчанию функция возвращает долю правильных прогнозов, деленную на общее количество прогнозов.

jaccard_score

Вычисляет коэффициент сходства Жаккара.

zero_one_loss

Вычислить потерю классификации Zero-one. По умолчанию функция вернет процент неправильно предсказанных подмножеств.

Примечания

В многоклассовой классификации потеря Хэмминга соответствует расстоянию Хэмминга между y_true и y_pred что эквивалентно подмножеству zero_one_loss функция, когда normalize параметр установлен в True.

В многометочной классификации потеря Хэмминга отличается от потери подмножества ноль-один. Потеря ноль-один считает весь набор меток для данного образца неверным, если он не полностью совпадает с истинным набором меток. Потеря Хэмминга более снисходительна, так как штрафует только отдельные метки.

Потеря Хэмминга ограничена сверху subset zero-one loss, когда normalize параметр установлен в True. Он всегда находится между 0 и 1, чем меньше, тем лучше.

Ссылки

[1]

Григориос Цумакас, Иоаннис Катакис. Многометочная классификация: обзор. Международный журнал по складированию и добыче данных, 3(3), 1-13, июль-сентябрь 2007.

Примеры

>>> from sklearn.metrics import hamming_loss
>>> y_pred = [1, 2, 3, 4]
>>> y_true = [2, 2, 3, 4]
>>> hamming_loss(y_true, y_pred)
0.25

В случае многометочной классификации с бинарными индикаторами меток:

>>> import numpy as np
>>> hamming_loss(np.array([[0, 1], [1, 1]]), np.zeros((2, 2)))
0.75