Stiamo lavorando per ripristinare l'app di Unionpedia nel Google Play Store
UscenteArrivo
🌟Abbiamo semplificato il nostro design per una migliore navigazione!
Instagram Facebook X LinkedIn

Kappa di Cohen

Indice Kappa di Cohen

Il Kappa di Cohen è un coefficiente statistico che rappresenta il grado di accuratezza e affidabilità in una classificazione statistica; è un indice di concordanza che tiene conto della probabilità di concordanza casuale; l'indice calcolato in base al rapporto tra l'accordo in eccesso rispetto alla probabilità di concordanza casuale e l'eccesso massimo ottenibile.

Indice

  1. 2 relazioni: Classificazione, Matrice di confusione.

Classificazione

Il termine classificazione viene utilizzato per varie attività che si possono ricondurre alla gestione delle conoscenze. Si tratta dell'operazione con cui un insieme indistinto di oggetti o entità vengono riorganizzati secondo una gerarchia ordinata, dando la possibilità di potersi orientare tra questi e di conoscerne legami e dipendenze reciproche.

Vedere Kappa di Cohen e Classificazione

Matrice di confusione

Nell'ambito del Machine learning, la matrice di confusione, detta anche tabella di errata classificazione, restituisce una rappresentazione dell'accuratezza di classificazione statistica.

Vedere Kappa di Cohen e Matrice di confusione