zero_one_loss#

sklearn.metrics.zero_one_loss(y_true, y_pred, *, normalize=True, sample_weight=None)[source]#

Null-Eins-Klassifikationsverlust.

Wenn normalize True ist, wird der Anteil der Fehlklassifizierungen zurückgegeben, andernfalls die Anzahl der Fehlklassifizierungen. Die beste Leistung ist 0.

Mehr dazu im Benutzerhandbuch.

Parameter:
y_true1D Array-ähnlich oder Label-Indikator-Array / Sparse Matrix

Grundwahrheits- (korrekte) Labels. Dünnbesetzte Matrizen werden nur unterstützt, wenn die Labels vom Typ Multilabel sind.

y_pred1D Array-ähnlich oder Label-Indikator-Array / Sparse Matrix

Vorhergesagte Labels, wie sie von einem Klassifikator zurückgegeben werden. Dünnbesetzte Matrizen werden nur unterstützt, wenn die Labels vom Typ Multilabel sind.

normalizebool, default=True

Wenn False, wird die Anzahl der Fehlklassifizierungen zurückgegeben. Andernfalls wird der Anteil der Fehlklassifizierungen zurückgegeben.

sample_weightarray-like der Form (n_samples,), Standardwert=None

Stichprobengewichte.

Gibt zurück:
lossfloat

Wenn normalize == True, wird der Anteil der Fehlklassifizierungen zurückgegeben, andernfalls die Anzahl der Fehlklassifizierungen.

Siehe auch

accuracy_score

Berechnet den Genauigkeits-Score. Standardmäßig gibt die Funktion den Anteil der korrekten Vorhersagen geteilt durch die Gesamtzahl der Vorhersagen zurück.

hamming_loss

Berechnet den durchschnittlichen Hamming-Verlust oder die Hamming-Distanz zwischen zwei Stichprobensätzen.

jaccard_score

Berechnet den Jaccard-Ähnlichkeitskoeffizienten-Score.

Anmerkungen

Bei der Mehrfachlabel-Klassifizierung entspricht die Funktion zero_one_loss dem Subset Zero-One-Verlust: Für jede Stichprobe muss die gesamte Menge der Labels korrekt vorhergesagt werden, andernfalls ist der Verlust für diese Stichprobe gleich eins.

Beispiele

>>> from sklearn.metrics import zero_one_loss
>>> y_pred = [1, 2, 3, 4]
>>> y_true = [2, 2, 3, 4]
>>> zero_one_loss(y_true, y_pred)
0.25
>>> zero_one_loss(y_true, y_pred, normalize=False)
1.0

Im Multilabel-Fall mit binären Label-Indikatoren

>>> import numpy as np
>>> zero_one_loss(np.array([[0, 1], [1, 1]]), np.ones((2, 2)))
0.5