Streuungsmaß (Statistik)

Dieser Artikel behandelt Streuungsmaße in der deskriptiven und induktiven Statistik. Für Streuungsmaße als Kennzahlen von Wahrscheinlichkeitsverteilungen siehe Dispersionsmaß (Stochastik).

Streuungsmaße, auch Dispersionsmaße (lateinisch dispersio „Zerstreuung“, von dispergere „verteilen, ausbreiten, zerstreuen“) oder Streuungsparameter genannt, fassen in der deskriptiven Statistik verschiedene Maßzahlen zusammen, die die Streubreite von Beobachtungswerten beziehungsweise einer Häufigkeitsverteilung um einen geeigneten Lageparameter herum beschreiben. Die verschiedenen Berechnungsmethoden unterscheiden sich prinzipiell durch ihre Beeinflussbarkeit beziehungsweise Empfindlichkeit gegenüber Ausreißern.

Anforderungen

Es sei ( x 1 , , x n ) R n {\displaystyle (x_{1},\dots ,x_{n})\in \mathbb {R} ^{n}} ein Vektor von Beobachtungwerten (Daten) und s : R n R {\displaystyle s\colon \mathbb {R} ^{n}\rightarrow \mathbb {R} } eine Funktion. Die Funktion s {\displaystyle s} heißt ein Streuungsmaß, wenn sie im Allgemeinen folgende Anforderungen erfüllt:

  • s ( x 1 , , x n ) {\displaystyle s(x_{1},\dots ,x_{n})} ist eine nichtnegative reelle Zahl, die Null ist, wenn alle Beobachtungen gleich sind x 1 = x 2 = = x n = x ¯ {\displaystyle x_{1}=x_{2}=\ldots =x_{n}={\overline {x}}} (in den Daten ist keinerlei Variabilität vorhanden), und zunimmt, wenn die Daten vielfältiger werden. Wenn mindestens zwei Merkmalswerte voneinander verschieden sind, dann streuen die Daten untereinander bzw. um einen Mittelwert, was auch beim Streuungsmaß zum Ausdruck kommen sollte.
  • Bei einem Streuungsmaß wird Nichtnegativität gefordert, da bei Streuung „das Ausmaß“ statt „die Richtung“ konstituierend ist. Ein Streuungsmaß sollte also umso größer sein, je stärker Beobachtungswerte voneinander abweichen. Noch strenger wird oft gefordert, dass sich ein Streuungsmaß bei einer Ersetzung eines Beobachtungswertes durch einen neuen Merkmalswert nicht verkleinern darf.
  • s {\displaystyle s} ist translationsinvariant[1], d. h. eine Verschiebung des Nullpunktes hat keinen Einfluss auf die Verteilung. Es muss also folgendes gelten: s ( x 1 + a , , x n + a ) = s ( x 1 , , x n ) a R {\displaystyle s(x_{1}+a,\dots ,x_{n}+a)=s(x_{1},\dots ,x_{n})\;\;\;\forall a\in \mathbb {R} }
  • Es ist auch wünschenswert, dass das Streuungsmaß gegenüber Maßstabsänderungen invariant ist.[2]

Ein einfacher Ansatz für ein Streuungsmaß wäre, die Differenzen der Werte vom empirischen Mittel aufzusummieren. Dies führt zu

s ( x ) = i = 1 n ( x i x ¯ ) {\displaystyle s(x)=\sum _{i=1}^{n}(x_{i}-{\overline {x}})}

Diese Summe ergibt allerdings stets 0, weil sich positive und negative Summanden gegenseitig aufheben (Schwerpunkteigenschaft). Das ist also nicht geeignet als Streuungsmaß, da der Wert nicht zunimmt, wenn die Variabilität der Daten steigt. Möglichkeiten bestehen also darin, die Absolutbeträge oder die Quadrate der Abweichungen zu summieren.

Streuungsmaßzahlen in der beschreibenden (deskriptiven) Statistik

Im Folgenden wird davon ausgegangen, dass x 1 , , x n {\displaystyle x_{1},\dots ,x_{n}} reellwertige Beobachtungswerte vorliegen, die inhaltlich zu einer Variablen gehören. Dies können Messwerte sein. Es kann sich um Stichprobenwerte handeln, es kann sich aber auch um die Beobachtungswerte einer Gesamtheit handeln, die nicht als Stichprobe aufgefasst wird. Mit

x ¯ = 1 n i = 1 n x i {\displaystyle {\bar {x}}={\frac {1}{n}}\sum _{i=1}^{n}x_{i}}

ist der arithmetische Mittelwert der Beobachtungswerte bezeichnet.

Streuung um das arithmetische Mittel

Summe der Abweichungsquadrate

Hauptartikel: Summe der Abweichungsquadrate

Ein intuitives Streuungsmaß ist die Summe der Abweichungsquadrate, bei der die quadrierten Abweichungen der Beobachtungswerte vom arithmetischen Mittelwert aufsummiert werden,

S Q := i = 1 n ( x i x ¯ ) 2 . {\displaystyle SQ:=\sum \limits _{i=1}^{n}(x_{i}-{\overline {x}})^{2}\;.}

Empirische Varianz

Hauptartikel: empirische Varianz

Einer der wichtigsten Streuungsparameter ist die Varianz der Beobachtungswerte, die als

s 2 = 1 n i = 1 n ( x i x ¯ ) 2 {\displaystyle s^{2}={\frac {1}{n}}\sum \limits _{i=1}^{n}\left(x_{i}-{\overline {x}}\right)^{2}}

definiert ist und die äquivalente Darstellung

s 2 = 1 n i = 1 n x i 2 x ¯ 2 {\displaystyle s^{2}={\frac {1}{n}}\sum _{i=1}^{n}x_{i}^{2}-{\bar {x}}^{2}}

besitzt.[3] Eine weitere äquivalente Darstellung, die keinen Bezug auf den arithmetischen Mittelwert der Beobachtungswerte nimmt, ist

s 2 = 1 2 n 2 i = 1 n j = 1 n ( x i x j ) 2 . {\displaystyle s^{2}={\frac {1}{2n^{2}}}\sum _{i=1}^{n}\sum _{j=1}^{n}(x_{i}-x_{j})^{2}\;.} [4]

Empirische Standardabweichung

Hauptartikel: Empirische Standardabweichung

Die Standardabweichung ist definiert als die Wurzel aus der Varianz und ist demnach

s = 1 n i = 1 n ( x i x ¯ ) 2 . {\displaystyle s={\sqrt {{\frac {1}{n}}\sum \limits _{i=1}^{n}\left(x_{i}-{\overline {x}}\right)^{2}}}\;.}

Ein wesentlicher Unterschied zur Varianz ist, dass die Standardabweichung dieselbe Dimension und damit dieselben Einheiten wie die Beobachtungswerte besitzt.

Mittlere absolute Abweichung

Im Falle einer konkreten Stichprobe x 1 , , x n {\displaystyle x_{1},\dots ,x_{n}} mit dem arithmetischen Mittel x ¯ {\displaystyle {\overline {x}}} wird sie errechnet durch

e = 1 n i = 1 n | x i x ¯ | . {\displaystyle \operatorname {e} ={\frac {1}{n}}\sum _{i=1}^{n}\left|x_{i}-{\overline {x}}\right|.}

Die mittlere absolute Abweichung wird in der mathematischen Statistik meist zugunsten der quadratischen Abweichung umgangen, welche analytisch leichter zu behandeln ist. Die in der Definition verwendete Betragsfunktion ist nicht überall differenzierbar, was die Berechnung des Minimums erschwert.

Aufgrund der Ungleichung vom arithmetisch-quadratischen Mittel ist die mittlere absolute Abweichung kleiner oder gleich der Standardabweichung (Gleichheit gilt nur für konstante Zufallsgrößen).

Streuung um den Median

Quantilsabstand

Der Quantilsabstand ist die Differenz zwischen dem p {\displaystyle p} - und ( 1 p ) {\displaystyle \left(1-p\right)} -Quantil:

Q A p = Q 1 p Q p {\displaystyle QA_{p}=Q_{1-p}-Q_{p}\;} mit 0 p < 0 , 5 {\displaystyle \;0\leq p<0{,}5}

Innerhalb des Q A p {\displaystyle QA_{p}} liegen etwa 100 ( 1 2 p ) {\displaystyle 100\cdot (1-2p)} Prozent aller Beobachtungswerte.

Interquartilsabstand

Hauptartikel: Interquartilsabstand (Deskriptive Statistik)

Der Interquartilsabstand (engl. interquartile range), abgekürzt IQR, wird als Differenz der Quartile Q 0 , 75 {\displaystyle Q_{0{,}75}} und Q 0 , 25 {\displaystyle Q_{0{,}25}} berechnet:

IQR = Q 0 , 75 Q 0 , 25 {\displaystyle \operatorname {IQR} =Q_{0{,}75}-Q_{0{,}25}}

Innerhalb des IQR liegen 50 % aller Messwerte. Er ist – wie auch der Median bzw. Q 0 , 5 {\displaystyle Q_{0{,}5}} – unempfindlich gegenüber Ausreißern. Es lässt sich zeigen, dass er einen Bruchpunkt von ε = 0 , 25 {\displaystyle \varepsilon ^{*}=0{,}25} hat.

Der Interquartilsabstand ist gleich dem Quantilsabstand Q A 0 , 25 {\displaystyle QA_{0{,}25}}

Mittlere absolute Abweichung vom Median

Für n {\displaystyle n} beobachtete Werte x 1 , , x n {\displaystyle x_{1},\dots ,x_{n}} mit dem (eindeutigen) Median x ~ {\displaystyle {\tilde {x}}} ist die Mittlere absolute Abweichung vom Median als

MD = 1 n i = 1 n | x i x ~ | {\displaystyle \operatorname {MD} ={\frac {1}{n}}\sum _{i=1}^{n}\left|x_{i}-{\tilde {x}}\right|}

definiert. Aufgrund der Extremaleigenschaft des Medians gilt im Vergleich mit der mittleren absoluten Abweichung stets

MD e {\displaystyle \operatorname {MD} \leq \operatorname {e} } ,

d. h. die mittlere absolute Abweichung bezüglich des Medians ist erst recht kleiner als die Standardabweichung.

Median der absoluten Abweichungen vom Median

Für Beobachtungswerte x 1 , , x n {\displaystyle x_{1},\dots ,x_{n}} ist die mittlere absolute Abweichung (engl. median absolute deviation, auch MedMed), abgekürzt MAD, ist definiert durch

MAD = median { | x i x ~ | i = 1 , , n } {\displaystyle \operatorname {MAD} =\operatorname {median} \{\left|x_{i}-{\tilde {x}}\right|\mid i=1,\dots ,n\}}

Die mittlere absolute Abweichung ist ein robuster Schätzer für die Standardabweichung. Es lässt sich zeigen, dass sie einen Bruchpunkt von ε = 0 , 5 {\displaystyle \varepsilon ^{*}=0{,}5} hat.

Weitere Streuungsmaße

Spannweite

Die Spannweite (englisch range) R {\displaystyle R} berechnet sich als Differenz zwischen dem größten und dem kleinsten Beobachtungswert:

R = x max x min {\displaystyle R=x_{\max }-x_{\min }}

Da die Spannweite nur aus den zwei Extremwerten berechnet wird, ist sie nicht robust gegenüber Ausreißern.

Ginis mittlere Differenz

Für Beobachtungswerte ( x 1 , , x n ) {\displaystyle (x_{1},\dots ,x_{n})} heißt die Maßzahl

Δ = 1 n 2 i = 1 n j = 1 n | x i x j | {\displaystyle \Delta ={\frac {1}{n^{2}}}\sum _{i=1}^{n}\sum _{j=1}^{n}|x_{i}-x_{j}|}

Ginis mittlere Differenz.[5]

Mittlere absolute Differenz

Für Beobachtungswerte ( x 1 , , x n ) {\displaystyle (x_{1},\dots ,x_{n})} ist

Δ ¯ = 1 n ( n 1 ) i = 1 n j = 1 n | x i x j | = 2 n ( n 1 ) i = 1 n 1 j = i + 1 n | x i x j | {\displaystyle {\bar {\Delta }}={\frac {1}{n(n-1)}}\sum _{i=1}^{n}\sum _{j=1}^{n}|x_{i}-x_{j}|={\frac {2}{n(n-1)}}\sum _{i=1}^{n-1}\sum _{j=i+1}^{n}|x_{i}-x_{j}|}

die mittlere absolute Differenz oder mittlere Differenz.[6]

Geometrische Standardabweichung

Die geometrische Standardabweichung ist ein Streuungsmaß um das geometrische Mittel.

Relative Streuungsmaße

Relative Streuungsmaße heißen auch relative Streumaße oder Dispersionskoeffizienten.[6] Ein relatives Streumaß ist typischerweise ein Quotient aus einem Streuungsmaß und einem Lagemaß.[6]

Relative Spannweite

Die relative Spannweite berechnet sich als Quotient aus der Spannweite und der Bereichsmitte;[6]

v R = R x min + x max 2 . {\displaystyle vR={\frac {R}{\frac {x_{\min }+x_{\max }}{2}}}\;.}

Variationskoeffizient

Der empirische Variationskoeffizient wird gebildet als Quotient aus empirischer Standardabweichung s {\displaystyle s} und arithmetischem Mittel x ¯ {\displaystyle {\overline {x}}} :

v = s x ¯ , x ¯ > 0 {\displaystyle v={\frac {s}{\overline {x}}},\quad {\overline {x}}>0} .[6]

Er ist dimensionslos und somit nicht einheitenbehaftet.

Ginikoeffizient

Hauptartikel: Ginikoeffizient

Zwischen Ginis mittlerer Differenz Δ {\displaystyle \Delta } , dem arithmetischen Mittelwert x ¯ {\displaystyle {\bar {x}}} und dem Gini-Koeffizienten G {\displaystyle G} besteht der Zusammenhang

G = Δ 2 x ¯ . {\displaystyle G={\frac {\Delta }{2{\bar {x}}}}\;.} [7]

Damit ist der Gini-Koeffizient als Quotient aus einem Streuungsmaß und einem Lagemaß ein relatives Streuungsmaß.[8]

Relative durchschnittliche Abweichung vom Median

Die relative durchschnittliche Abweichung vom Median wird gebildet als Quotient aus durchschnittlicher Abweichung vom Median und Median;[6]

v d = MD x ~ . {\displaystyle vd={\frac {\operatorname {MD} }{\tilde {x}}}\;.}

Relativer Quartilsabstand

Der relative Quartilsabstand wird gebildet als Quotient aus Quartilsabstand und Median;[6]

v q = IQR x ~ . {\displaystyle vq={\frac {\operatorname {IQR} }{\tilde {x}}}\;.}

Streuungsmaßzahlen in der schließenden (induktiven) Statistik

In der induktiven Statistik sind die Beobachtungswerte x 1 , , x n {\displaystyle x_{1},\dots ,x_{n}} Stichprobenwerte aus einer Stichprobe aus einer Grundgesamtheit und Realisierungen von Stichprobenvariablen X 1 , , X n {\displaystyle X_{1},\dots ,X_{n}} mit einer gemeinsamen Wahrscheinlichkeitsverteilung des Stichprobenvektors ( X 1 , , X n ) {\displaystyle (X_{1},\dots ,X_{n})} .

Dabei liegt häufig der Spezialfall stochastisch unabhängiger und identisch verteilter Stichprobenvariablen vor. In diesem Spezialfall können viele Streuungsmaßzahlen der deskriptiven Statistik als Schätzwerte analoger Streuungsmaßzahlen der Grundgesamtheit verwendet werden. Dass dieses Vorgehen – zumindest für große Stichprobenumfänge – meistens zu plausiblen Schätzern führt, garantiert der Hauptsatz der mathematischen Statistik (Satz von Glivenko und Cantelli), der besagt, dass sich die Häufigkeitsverteilung der Stichprobenwerte in einem sehr weitgehenden Sinn der Verteilung der Grundgesamtheit annähert.

Hauptartikel: Stichprobenvarianz (Schätzfunktion)

Korrigierte Stichprobenvarianz

Wenn die Stichprobenwerte als realisierte Werte stochastisch unabhängiger und identisch verteilter Stichprobenvariablen angesehen werden können und wenn mit Hilfe einer Streuungsmaßzahl der Stichprobe auf die Varianz σ 2 < {\displaystyle \sigma ^{2}<\infty } der Grundgesamtheit geschlossen werden soll, dann wird häufig anstelle der Stichprobenvarianz s 2 {\displaystyle s^{2}} die sogenannte korrigierte Stichprobenvarianz

s 2 = 1 n 1 i = 1 n ( x i x ¯ ) 2 {\displaystyle s^{*2}={\frac {1}{n-1}}\sum \limits _{i=1}^{n}\left(x_{i}-{\bar {x}}\right)^{2}}

verwendet: Der Grund ist, dass die zugehörige Stichprobenfunktion

S 2 = 1 n 1 i = 1 n ( X i X ¯ ) 2 {\displaystyle S^{*2}={\frac {1}{n-1}}\sum \limits _{i=1}^{n}\left(X_{i}-{\bar {X}}\right)^{2}}

in diesem Fall eine erwartungstreue Schätzfunktion für die Varianz der Grundgesamtheit ist, es gilt also E [ S 2 ] = σ 2 {\displaystyle \mathrm {E} [S^{*2}]=\sigma ^{2}} .

Dagegen hat die Schätzfunktion S 2 = 1 n i = 1 n ( X i X ¯ ) 2 , {\displaystyle S^{2}={\frac {1}{n}}\sum _{i=1}^{n}\left(X_{i}-{\bar {X}}\right)^{2}\;,} die auf der Stichprobenvarianz s 2 {\displaystyle s^{2}} beruht, den Erwartungswert

E [ S 2 ] = n 1 n σ 2 = σ 2 1 n σ 2 . {\displaystyle \mathrm {E} [S^{2}]={\frac {n-1}{n}}\sigma ^{2}=\sigma ^{2}-{\frac {1}{n}}\sigma ^{2}\;.}

Die Schätzfunktion S 2 {\displaystyle S^{2}} ist also keine erwartungstreue Schätzfunktion für σ 2 {\displaystyle \sigma ^{2}} und hat die Verzerrung E [ S 2 ] σ 2 = σ 2 / n {\displaystyle \mathrm {E} [S^{2}]-\sigma ^{2}=-\sigma ^{2}/n} .

Die Erwartungstreue der Schätzfunktion S 2 {\displaystyle S^{*2}} für den Parameter σ 2 {\displaystyle \sigma ^{2}} der Grundgesamtheit hängt entscheidend von der stochastischen Unabhängigkeit der Stichprobenvariablen ab und ist bei allgemeineren Stichprobenplänen (Ziehen mit Zurücklegen, geschichtete Stichprobenziehung usw.) nicht mehr automatisch erfüllt, so dass die Rechtfertigung der Korrektur entfällt.

In einem rein beschreibenden Kontext der deskriptiven Statistik, in dem es nicht um eine Schätzung eines Parameters der Grundgesamtheit geht, ist die Verwendung der korrigierten Stichprobenvarianz s 2 {\displaystyle s^{*2}} anstelle der Stichprobenvarianz s 2 {\displaystyle s^{2}} nicht zu begründen. „Statt mit dem Faktor 1 n {\displaystyle \textstyle {\frac {1}{n}}} werden die Varianz und die die Standardabweichung gelegentlich mit dem Faktor 1 n 1 {\displaystyle \textstyle {\frac {1}{n-1}}} definiert, besonders in manchen Taschenrechnern und statistischen Computerprogrammen. Eine Begründung des Faktors 1 n 1 {\displaystyle \textstyle {\frac {1}{n-1}}} ist nur im Rahmen der schließenden Statistik möglich.“[4]

Korrigierte Stichprobenstandardabweichung

Wenn in der induktiven Statistik mit Hilfe einer Streuungsmaßzahl der Stichprobe auf die Standardabweichung σ {\displaystyle \sigma } der Grundgesamtheit geschlossen werden soll, wird häufig die korrigierte Stichprobenstandardabweichung

s = 1 n 1 i = 1 n ( x i x ¯ ) 2 {\displaystyle s^{*}={\sqrt {{\frac {1}{n-1}}\sum \limits _{i=1}^{n}\left(x_{i}-{\bar {x}}\right)^{2}}}}

als Schätzwert für die Standardabweichung σ {\displaystyle \sigma } der Grundgesamtheit verwendet. Allerdings ist die zugehörige Schätzfunktion

S = 1 n 1 i = 1 n ( X i X ¯ ) 2 {\displaystyle S^{*}={\sqrt {{\frac {1}{n-1}}\sum \limits _{i=1}^{n}\left(X_{i}-{\bar {X}}\right)^{2}}}}

auch im Fall stochastisch unabhängiger und identisch verteilter Stichprobenvariablen in der Regel keine erwartungstreue Schätzfunktion für den Parameter σ {\displaystyle \sigma } der Grundgesamtheit.

Im Spezialfall einer normalverteilten Grundgesamtheit ist eine erwartungstreue Schätzung der Standardabweichung möglich.

Alternative Bezeichnungen und Notationen

In vielen Anwendungsbereichen, in denen die Stichprobeninterpretation der beobachteten Werte der Standardfall ist (z. B. Messungen in der Technik und Biometrie) wird die korrigierte Stichprobenvarianz als die Stichprobenvarianz bezeichnet und meistens mit s 2 {\displaystyle s^{2}} bezeichnet. Auch wird die korrigierte Stichprobenvarianz als empirische Streuung oder als empirische Varianz bezeichnet und die zugehörige Stichprobenfunktion als Stichprobenstreuung.[9] Auch in Darstellungen der induktiven Statistik wird häufig das Symbol S 2 {\displaystyle S^{2}} für die oben mit S 2 {\displaystyle S^{*2}} bezeichnete Stichprobenfunktion verwendet.

Streuungsmaßzahlen in der Wahrscheinlichkeitstheorie

In der Wahrscheinlichkeitstheorie charakterisieren Streuungsmaßzahlen Eigenschaften einer Wahrscheinlichkeitsverteilung. Die entsprechenden Maßzahlen sind teilweise analog zu den Maßzahlen der deskriptiven Statistik konstruiert. In der mathematischen Statistik werden Methoden zu Charakterisierung von Wahrscheinlichkeitsverteilungen durch beschreibende Kennzahlen der deskriptiven Statistik zugerechnet.[10]

Hauptartikel: Dispersionsmaß (Stochastik)

Graphische Darstellungsformen

Siehe auch

Einzelnachweise

  1. Andreas Büchter, H.-W. Henn: Elementare Stochastik - Eine Einführung. 2. Auflage. Springer, 2007, ISBN 978-3-540-45382-6, S. 83. 
  2. Hans Friedrich Eckey et al.: Statistik: Grundlagen — Methoden — Beispiele., S. 74. (1. Aufl. 1992; 3. Aufl. 2002, ISBN 3-409-32701-0). Die 4. Aufl. 2005 und die 5. Aufl. 2008 erschienen unter dem Titel Deskriptive Statistik: Grundlagen — Methoden — Beispiele).
  3. Horst Rinne: Taschenbuch der Statistik. 2008, S. 43. 
  4. a b Karl Mosler, Friedrich Schmid: Beschreibende Statistik und Wirtschaftsstatistik. 2009, S. 43. 
  5. Karl Mosler, Friedrich Schmid: Beschreibende Statistik und Wirtschaftsstatistik. 2009, S. 46. 
  6. a b c d e f g Horst Rinne: Taschenbuch der Statistik. 2008, S. 45. 
  7. Karl Mosler, Friedrich Schmid: Beschreibende Statistik und Wirtschaftsstatistik. 2009, S. 95. 
  8. Karl Mosler, Friedrich Schmid: Beschreibende Statistik und Wirtschaftsstatistik. 2009, S. 96. 
  9. Streuungsmaße (measures of dispersion). In: P. H. Müller (Hrsg.): Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik. S. 428–429. 
  10. Siehe dazu Chapter 3, Descriptive Statistics in Johann Pfanzagl: Mathematical Statistics – Essays on History and Methodology. Springer, Berlin, Heidelberg 2017, ISBN 978-3-642-31083-6, doi:10.1007/978-3-642-31084-3. 

Literatur

  • Karl Mosler, Friedrich Schmid: Beschreibende Statistik und Wirtschaftsstatistik. 4. Auflage. Springer, Berlin / Heidelberg 2009, ISBN 978-3-642-01556-4. 
  • P. H. Müller (Hrsg.): Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik. 5. Auflage. Akademie-Verlag, Berlin 1991, ISBN 978-3-05-500608-1, Streuungsmaße (measures of dispersion), S. 428–429. 
  • Horst Rinne: Taschenbuch der Statistik. 4. Auflage. Harri Deutsch, Frankfurt am Main 2008, ISBN 978-3-8171-1827-4, A 2.3.2 Streuungsparameter, S. 42–46. 
  • Bernd Rönz, Hans Gerhard Strohe (Hrsg.): Lexikon Statistik. Gabler, Wiesbaden 1994, ISBN 3-409-19952-7, Streuungsmaß, S. 353. 
Wiktionary: Streuung – Bedeutungserklärungen, Wortherkunft, Synonyme, Übersetzungen