Zum Inhalt springen

Intravarianz

aus Wikipedia, der freien Enzyklopädie

Die Intravarianz (von {{#invoke:Vorlage:lang|full|CODE=la |SCRIPTING=Latn |SERVICE=lateinisch}} intra, „innerhalb“ und variantia für „Verschiedenheit“) bzw. Streuung (Varianz) innerhalb der Klassen ist ein Maß dafür, wie sehr sich die Objekte innerhalb einer Klasse unterscheiden. Je geringer die Intravarianz, desto ähnlicher sind sich die Objekte.

Die Intravarianz ist zusammen mit der Intervarianz besonders in der Klassifizierung von Bedeutung, wo Objekte in Klassen eingeordnet werden. Dort gilt die Richtlinie: Je geringer die Intravarianz und je höher die Intervarianz, desto leichter fällt die Klassifizierung.

Formale Darstellung

Sei <math>M</math> ein beliebiger Merkmalsraum, der die <math>c</math> Klassen <math>C_1,\ldots, C_c \subseteq M</math> umfasst. Es gibt zwei Möglichkeiten, die Intravarianz anzugeben, je nachdem ob die Mittelwerte <math>\mu_i</math> oder die A-priori-Wahrscheinlichkeiten <math>P_i</math> und Kovarianzmatrizen <math>\Sigma_i</math> der Klassen (jeweils <math>i = 1,\ldots, c</math>) bekannt sind:<ref>Matthias Michelsburg: Materialklassifikation in optischen Inspektionssystemen mithilfe hyperspektraler Daten., S. 50.</ref>

<math>S_W := \sum_{i=1}^c \sum_{x \in C_i} (x - \mu^i) (x - \mu^i)^T = \sum_{i=1}^c P_i \Sigma_i</math>

Falls <math>M</math> <math>d</math> Dimensionen hat, so ist <math>S_W</math> eine quadratische Matrix mit <math>d</math> Zeilen und <math>d</math> Spalten. Da Kovarianzmatrizen stets symmetrisch sind, ist aufgrund der zweiten Form auch die Intravarianz eine symmetrische Matrix.

Einzelnachweise

<references />