cohen_kappa_score#
- sklearn.metrics.cohen_kappa_score(y1, y2, *, labels=None, weights=None, sample_weight=None)[Quelle]#
Berechnet Cohens Kappa: eine Statistik, die die Übereinstimmung zwischen Annotatoren misst.
Diese Funktion berechnet Cohens Kappa [1], einen Score, der den Grad der Übereinstimmung zwischen zwei Annotatoren bei einem Klassifikationsproblem ausdrückt. Er ist definiert als
\[\kappa = (p_o - p_e) / (1 - p_e)\]wobei \(p_o\) die empirische Wahrscheinlichkeit der Übereinstimmung für das einem Sample zugewiesene Label ist (die beobachtete Übereinstimmungsrate) und \(p_e\) die erwartete Übereinstimmung ist, wenn beide Annotatoren Labels zufällig zuweisen. \(p_e\) wird anhand eines empirischen Priors pro Annotator über die Klassenlabels geschätzt [2].
Lesen Sie mehr im Benutzerhandbuch.
- Parameter:
- y1array-like der Form (n_samples,)
Labels, die vom ersten Annotator zugewiesen wurden.
- y2array-like der Form (n_samples,)
Labels, die vom zweiten Annotator zugewiesen wurden. Die Kappa-Statistik ist symmetrisch, daher ändert das Vertauschen von
y1undy2den Wert nicht.- labelsarray-like der Form (n_classes,), Standard=None
Liste der Labels zur Indizierung der Matrix. Dies kann verwendet werden, um eine Teilmenge von Labels auszuwählen. Wenn
None, werden alle Labels verwendet, die mindestens einmal iny1odery2vorkommen. Beachten Sie, dass mindestens ein Label inlabelsiny1vorhanden sein muss, auch wenn diese Funktion sonst unempfindlich gegenüber der Reihenfolge vony1undy2ist.- weights{‘linear’, ‘quadratic’}, Standardwert=None
Art der Gewichtung zur Berechnung des Scores.
Nonebedeutet keine Gewichtung; „linear“ bedeutet lineare Gewichtung; „quadratic“ bedeutet quadratische Gewichtung.- sample_weightarray-like der Form (n_samples,), Standardwert=None
Stichprobengewichte.
- Gibt zurück:
- kappafloat
Die Kappa-Statistik, die eine Zahl zwischen -1 und 1 ist. Der Maximalwert bedeutet vollständige Übereinstimmung; Null oder niedriger bedeutet zufällige Übereinstimmung.
Referenzen
Beispiele
>>> from sklearn.metrics import cohen_kappa_score >>> y1 = ["negative", "positive", "negative", "neutral", "positive"] >>> y2 = ["negative", "positive", "negative", "neutral", "negative"] >>> cohen_kappa_score(y1, y2) 0.6875