f1_score#

sklearn.metrics.f1_score(y_true, y_pred, *, метки=None, pos_label=1, среднее='binary', sample_weight=None, zero_division='warn')[источник]#

Вычислите оценку F1, также известную как сбалансированная F-оценка или F-мера.

Оценка F1 может быть интерпретирована как гармоническое среднее точности и полноты, где оценка F1 достигает своего наилучшего значения при 1 и худшего при 0. Относительный вклад точности и полноты в оценку F1 одинаков. Формула для оценки F1:

\[\text{F1} = \frac{2 * \text{TP}}{2 * \text{TP} + \text{FP} + \text{FN}}\]

Где \(\text{TP}\) это количество истинно положительных случаев, \(\text{FN}\) — это количество ложноотрицательных результатов, а \(\text{FP}\) — это количество ложных срабатываний. F1 по умолчанию рассчитывается как 0.0, когда нет истинных срабатываний, ложных отрицаний или ложных срабатываний.

Поддержка за пределами бинарный целей достигается путем обработки многоклассовый и многометочный данные как набор бинарных задач, по одной для каждой метки. Для бинарный случае, установка average='binary' будет возвращать F1-оценку для pos_label. Если average не является 'binary', pos_label игнорируется и F1-оценка для обоих классов вычисляется, затем усредняется или возвращается обе (когда average=None). Аналогично, для многоклассовый и многометочный целевые значения, F1-мера для всех labels либо возвращаются, либо усредняются в зависимости от average параметр. Используйте labels указать набор меток для расчета F1-оценки.

Подробнее в Руководство пользователя.

Параметры:
y_true1d array-like, или массив индикаторов меток / разреженная матрица

Истинные (правильные) целевые значения. Разреженная матрица поддерживается только когда цели имеют многометочный тип.

y_pred1d array-like, или массив индикаторов меток / разреженная матрица

Оцененные цели, возвращаемые классификатором. Разреженная матрица поддерживается только когда цели имеют многометочный тип.

меткиarray-like, default=None

Набор меток для включения, когда average != 'binary', и их порядок, если average is None. Метки, присутствующие в данных, могут быть исключены, например, в многоклассовой классификации для исключения "отрицательного класса". Метки, отсутствующие в данных, могут быть включены и им будет "назначено" 0 образцов. Для многометочных целей метки являются индексами столбцов. По умолчанию все метки в y_true и y_pred используются в отсортированном порядке.

Изменено в версии 0.17: Параметр labels улучшена для многоклассовой задачи.

pos_labelint, float, bool или str, по умолчанию=1

Класс для отчета, если average='binary' и данные являются бинарными, в противном случае этот параметр игнорируется. Для многоклассовых или многометочных целей, установите labels=[pos_label] и average != 'binary' для отчета метрик только для одной метки.

среднее{‘micro’, ‘macro’, ‘samples’, ‘weighted’, ‘binary’} или None, по умолчанию=’binary’

Этот параметр обязателен для многоклассовых/многометочных целей. Если None, метрики для каждого класса возвращаются. В противном случае это определяет тип усреднения, выполняемого над данными:

'binary':

Отчитываться только о результатах для класса, указанного pos_label. Это применимо только если цели (y_{true,pred}) являются бинарными.

'micro':

Рассчитать метрики глобально, подсчитывая общее количество истинно положительных, ложно отрицательных и ложноположительных.

'macro':

Вычислить метрики для каждой метки и найти их невзвешенное среднее. Это не учитывает дисбаланс меток.

'weighted':

Вычисляет метрики для каждой метки и находит их среднее, взвешенное по поддержке (количеству истинных экземпляров для каждой метки). Это изменяет 'macro' для учёта дисбаланса меток; может привести к F-оценке, не находящейся между точностью и полнотой.

'samples':

Вычислить метрики для каждого экземпляра и найти их среднее (имеет смысл только для многоклассовой классификации, где это отличается от accuracy_score).

sample_weightarray-like формы (n_samples,), по умолчанию=None

Веса выборок.

zero_division{"warn", 0.0, 1.0, np.nan}, по умолчанию="warn"

Устанавливает значение, возвращаемое при делении на ноль, т.е. когда все прогнозы и метки отрицательные.

Примечания: - Если установлено "warn", это действует как 0, но также выдается предупреждение. - Если установлено np.nan, такие значения будут исключены из среднего.

Добавлено в версии 1.3: np.nan опция была добавлена.

Возвращает:
f1_scorefloat или массив float, shape = [n_unique_labels]

F1-мера положительного класса в бинарной классификации или взвешенное среднее F1-мер каждого класса для многоклассовой задачи.

Смотрите также

fbeta_score

Вычислить F-бета оценку.

precision_recall_fscore_support

Вычислить точность, полноту, F-меру и поддержку.

jaccard_score

Вычисляет коэффициент сходства Жаккара.

multilabel_confusion_matrix

Вычислить матрицу ошибок для каждого класса или образца.

Примечания

Когда true positive + false positive + false negative == 0 (т.е. класс полностью отсутствует в обоих y_true или y_pred), F-оценка не определена. В таких случаях по умолчанию F-оценка будет установлена в 0.0, и UndefinedMetricWarning будет вызвано. Это поведение можно изменить, установив zero_division параметр.

Ссылки

Примеры

>>> import numpy as np
>>> from sklearn.metrics import f1_score
>>> y_true = [0, 1, 2, 0, 1, 2]
>>> y_pred = [0, 2, 1, 0, 0, 1]
>>> f1_score(y_true, y_pred, average='macro')
0.267
>>> f1_score(y_true, y_pred, average='micro')
0.33
>>> f1_score(y_true, y_pred, average='weighted')
0.267
>>> f1_score(y_true, y_pred, average=None)
array([0.8, 0. , 0. ])
>>> # binary classification
>>> y_true_empty = [0, 0, 0, 0, 0, 0]
>>> y_pred_empty = [0, 0, 0, 0, 0, 0]
>>> f1_score(y_true_empty, y_pred_empty)
0.0...
>>> f1_score(y_true_empty, y_pred_empty, zero_division=1.0)
1.0...
>>> f1_score(y_true_empty, y_pred_empty, zero_division=np.nan)
nan...
>>> # multilabel classification
>>> y_true = [[0, 0, 0], [1, 1, 1], [0, 1, 1]]
>>> y_pred = [[0, 0, 0], [1, 1, 1], [1, 1, 0]]
>>> f1_score(y_true, y_pred, average=None)
array([0.66666667, 1.        , 0.66666667])