hamming_loss#
- sklearn.metrics.hamming_loss(y_true, y_pred, *, sample_weight=None)[источник]#
Вычисляет среднюю потерю Хэмминга.
Потеря Хэмминга — это доля меток, которые предсказаны неверно.
Подробнее в Руководство пользователя.
- Параметры:
- y_true1d array-like, или массив индикаторов меток / разреженная матрица
Истинные (правильные) метки. Разреженная матрица поддерживается только когда цели имеют тип многометочный тип.
- y_pred1d array-like, или массив индикаторов меток / разреженная матрица
Предсказанные метки, возвращаемые классификатором. Разреженная матрица поддерживается только когда цели имеют многометочный тип.
- sample_weightarray-like формы (n_samples,), по умолчанию=None
Веса выборок.
Добавлено в версии 0.18.
- Возвращает:
- потеряfloat
Возвращает среднюю потерю Хэмминга между элементами
y_trueиy_pred.
Смотрите также
accuracy_scoreВычисляет показатель точности. По умолчанию функция возвращает долю правильных прогнозов, деленную на общее количество прогнозов.
jaccard_scoreВычисляет коэффициент сходства Жаккара.
zero_one_lossВычислить потерю классификации Zero-one. По умолчанию функция вернет процент неправильно предсказанных подмножеств.
Примечания
В многоклассовой классификации потеря Хэмминга соответствует расстоянию Хэмминга между
y_trueиy_predчто эквивалентно подмножествуzero_one_lossфункция, когдаnormalizeпараметр установлен в True.В многометочной классификации потеря Хэмминга отличается от потери подмножества ноль-один. Потеря ноль-один считает весь набор меток для данного образца неверным, если он не полностью совпадает с истинным набором меток. Потеря Хэмминга более снисходительна, так как штрафует только отдельные метки.
Потеря Хэмминга ограничена сверху subset zero-one loss, когда
normalizeпараметр установлен в True. Он всегда находится между 0 и 1, чем меньше, тем лучше.Ссылки
[1]Григориос Цумакас, Иоаннис Катакис. Многометочная классификация: обзор. Международный журнал по складированию и добыче данных, 3(3), 1-13, июль-сентябрь 2007.
Примеры
>>> from sklearn.metrics import hamming_loss >>> y_pred = [1, 2, 3, 4] >>> y_true = [2, 2, 3, 4] >>> hamming_loss(y_true, y_pred) 0.25
В случае многометочной классификации с бинарными индикаторами меток:
>>> import numpy as np >>> hamming_loss(np.array([[0, 1], [1, 1]]), np.zeros((2, 2))) 0.75