Normalverteilung
































































Normalverteilung
Dichtefunktion
Normal Distribution PDF.svg Dichtefunktionen der Normalverteilung N(μ2){displaystyle {mathcal {N}}(mu ,sigma ^{2})}{mathcal {N}}(mu ,sigma ^{2}):
N(0;0,2){displaystyle {mathcal {N}}(0;0{,}2)}{displaystyle {mathcal {N}}(0;0{,}2)} (blau), N(0;1){displaystyle {mathcal {N}}(0;1)}{displaystyle {mathcal {N}}(0;1)} (rot), N(0;5){displaystyle {mathcal {N}}(0;5)}{displaystyle {mathcal {N}}(0;5)} (gelb) und N(−2;0,5){displaystyle {mathcal {N}}(-2;,0{,}5)}{displaystyle {mathcal {N}}(-2;,0{,}5)} (grün)
Verteilungsfunktion
Normal-distribution-cumulative-density-function-many.svg Verteilungsfunktionen der Normalverteilungen:
N(0;0,2){displaystyle {mathcal {N}}(0;0{,}2)}{displaystyle {mathcal {N}}(0;0{,}2)} (blau), N(0,1){displaystyle {mathcal {N}}(0,1)}mathcal N(0,1) (rot), N(0,5){displaystyle {mathcal {N}}(0,5)}{displaystyle {mathcal {N}}(0,5)} (gelb) und N(−2,0,5){displaystyle {mathcal {N}}(-2,,0{,}5)}{displaystyle {mathcal {N}}(-2,,0{,}5)} (grün)
Parameter

μR{displaystyle mu in mathbb {R} }mu in mathbb {R} – Erwartungswert (Lageparameter)
σ2>0{displaystyle sigma ^{2}>0}sigma ^{2}>0 – Varianz (Skalenparameter)

Träger

TX=R{displaystyle {mathcal {T}}_{X}=mathbb {R} }{displaystyle {mathcal {T}}_{X}=mathbb {R} }

Dichtefunktion

12πσ2exp⁡{−(x−μ)22σ2}{displaystyle {frac {1}{sqrt {2pi sigma ^{2}}}}operatorname {exp} left{-{frac {left(x-mu right)^{2}}{2sigma ^{2}}}right}}frac{1}{sqrt{2pisigma^2}}operatorname{exp}left{-frac{left(x-muright)^2}{2sigma^2}right}

Verteilungsfunktion

12(1+erf⁡(x−μ2)){displaystyle {frac {1}{2}}left(1+operatorname {erf} left({frac {x-mu }{sqrt {2sigma ^{2}}}}right)right)}{frac {1}{2}}left(1+operatorname {erf} left({frac {x-mu }{sqrt {2sigma ^{2}}}}right)right)
– mit Fehlerfunktion erf⁡(x){displaystyle operatorname {erf} (x)}{displaystyle operatorname {erf} (x)}

Erwartungswert

μ{displaystyle mu }mu

Median

μ{displaystyle mu }mu

Modus

μ{displaystyle mu }mu

Varianz

σ2{displaystyle sigma ^{2},}sigma ^{2},

Schiefe

0{displaystyle 0}{displaystyle 0}

Wölbung

3{displaystyle 3}3

Entropie

12ln⁡(2π2){displaystyle {frac {1}{2}}ln(2pi e,sigma ^{2})}{frac {1}{2}}ln(2pi e,sigma ^{2})

Momenterzeugende Funktion

exp⁡t+12σ2t2}{displaystyle exp left{mu t+{tfrac {1}{2}}sigma ^{2}t^{2}right}}{displaystyle exp left{mu t+{tfrac {1}{2}}sigma ^{2}t^{2}right}}

Charakteristische Funktion

exp⁡{iμt−12σ2t2}{displaystyle exp left{imu t-{tfrac {1}{2}}sigma ^{2}t^{2}right}}{displaystyle exp left{imu t-{tfrac {1}{2}}sigma ^{2}t^{2}right}}

Fisher-Information

(1/σ2001/(2σ4)){displaystyle {begin{pmatrix}1/sigma ^{2}&0\0&1/(2sigma ^{4})end{pmatrix}}}begin{pmatrix}1/sigma^2&0\0&1/(2sigma^4)end{pmatrix}

Die Normal- oder Gauß-Verteilung (nach Carl Friedrich Gauß) ist in der Stochastik ein wichtiger Typ stetiger Wahrscheinlichkeitsverteilungen. Ihre Wahrscheinlichkeitsdichte wird auch Gauß-Funktion, Gaußsche Normalverteilung, Gaußsche Verteilungskurve, Gauß-Kurve, Gaußsche Glockenkurve, Gaußsche Glockenfunktion, Gauß-Glocke oder schlicht Glockenkurve genannt.


Die besondere Bedeutung der Normalverteilung beruht unter anderem auf dem zentralen Grenzwertsatz, dem zufolge Verteilungen, die durch Überlagerung einer großen Zahl von unabhängigen Einflüssen entstehen, unter schwachen Voraussetzungen annähernd normalverteilt sind. Die Familie der Normalverteilungen bildet eine Lage- und Skalenfamilie.


Die Abweichungen der Messwerte vieler natur-, wirtschafts- und ingenieurwissenschaftlicher Vorgänge vom Erwartungswert lassen sich durch die Normalverteilung (bei biologischen Prozessen oft logarithmische Normalverteilung) entweder exakt oder wenigstens in sehr guter Näherung beschreiben (vor allem Prozesse, die in mehreren Faktoren unabhängig voneinander in verschiedene Richtungen wirken).


Zufallsvariablen mit Normalverteilung benutzt man zur Beschreibung zufälliger Vorgänge wie:



  • zufällige Messfehler,

  • zufällige Abweichungen vom Sollmaß bei der Fertigung von Werkstücken,

  • Beschreibung der brownschen Molekularbewegung.


In der Versicherungsmathematik ist die Normalverteilung geeignet zur Modellierung von Schadensdaten im Bereich mittlerer Schadenshöhen.


In der Messtechnik wird häufig eine Normalverteilung angesetzt, die die Streuung der Messfehler beschreibt. Hierbei ist von Bedeutung, wie viele Messpunkte innerhalb einer gewissen Streubreite liegen.


Die Standardabweichung σ{displaystyle sigma }sigma beschreibt die Breite der Normalverteilung. Die Halbwertsbreite einer Normalverteilung ist das ungefähr 2,4{displaystyle 2{,}4}{displaystyle 2{,}4}-Fache (genau 22ln⁡2{displaystyle 2{sqrt {2ln 2}}}{displaystyle 2{sqrt {2ln 2}}}) der Standardabweichung. Es gilt näherungsweise:



  • Im Intervall der Abweichung ±σ{displaystyle pm sigma }pm sigma vom Erwartungswert sind 68,27 % aller Messwerte zu finden,

  • Im Intervall der Abweichung ±{displaystyle pm 2sigma }pm 2sigma vom Erwartungswert sind 95,45 % aller Messwerte zu finden,

  • Im Intervall der Abweichung ±{displaystyle pm 3sigma }pm 3sigma vom Erwartungswert sind 99,73 % aller Messwerte zu finden.


Und ebenso lassen sich umgekehrt für gegebene Wahrscheinlichkeiten die maximalen Abweichungen vom Erwartungswert finden:



  • 50 % aller Messwerte haben eine Abweichung von höchstens 0,675σ{displaystyle 0{,}675sigma }0{,}675sigma vom Erwartungswert,

  • 90 % aller Messwerte haben eine Abweichung von höchstens 1,645σ{displaystyle 1{,}645sigma }1{,}645sigma vom Erwartungswert,

  • 95 % aller Messwerte haben eine Abweichung von höchstens 1,960σ{displaystyle 1{,}960sigma }1{,}960sigma vom Erwartungswert,

  • 99 % aller Messwerte haben eine Abweichung von höchstens 2,576σ{displaystyle 2{,}576sigma }2{,}576sigma vom Erwartungswert.


Somit kann neben dem Erwartungswert, der als Schwerpunkt der Verteilung interpretiert werden kann, auch der Standardabweichung eine einfache Bedeutung im Hinblick auf die Größenordnungen der auftretenden Wahrscheinlichkeiten bzw. Häufigkeiten zugeordnet werden.




Inhaltsverzeichnis






  • 1 Geschichte


  • 2 Definition


  • 3 Eigenschaften


    • 3.1 Verteilungsfunktion


    • 3.2 Symmetrie


    • 3.3 Maximalwert und Wendepunkte der Dichtefunktion


    • 3.4 Normierung


    • 3.5 Berechnung


    • 3.6 Erwartungswert


    • 3.7 Varianz und weitere Streumaße


    • 3.8 Standardabweichung der Normalverteilung


      • 3.8.1 Streuintervalle


      • 3.8.2 Ein Beispiel (mit Schwankungsbreite)




    • 3.9 Variationskoeffizient


    • 3.10 Schiefe


    • 3.11 Wölbung


    • 3.12 Kumulanten


    • 3.13 Charakteristische Funktion


    • 3.14 Momenterzeugende Funktion


    • 3.15 Momente


    • 3.16 Invarianz gegenüber Faltung


    • 3.17 Entropie




  • 4 Beziehungen zu anderen Verteilungsfunktionen


    • 4.1 Transformation zur Standardnormalverteilung


    • 4.2 Approximation der Binomialverteilung durch die Normalverteilung


    • 4.3 Beziehung zur Cauchy-Verteilung


    • 4.4 Beziehung zur Chi-Quadrat-Verteilung


    • 4.5 Beziehung zur Rayleigh-Verteilung


    • 4.6 Beziehung zur logarithmischen Normalverteilung


    • 4.7 Beziehung zur F-Verteilung


    • 4.8 Beziehung zur studentschen t-Verteilung




  • 5 Rechnen mit der Standardnormalverteilung


    • 5.1 Grundlegende Fragestellungen


    • 5.2 Streubereich und Antistreubereich


    • 5.3 Streubereiche am Beispiel der Qualitätssicherung




  • 6 Testen auf Normalverteilung


  • 7 Parameterschätzung, Konfidenzintervalle und Tests


  • 8 Erzeugung normalverteilter Zufallszahlen


    • 8.1 Box-Muller-Methode


    • 8.2 Polar-Methode


    • 8.3 Zwölferregel


    • 8.4 Verwerfungsmethode


    • 8.5 Inversionsmethode




  • 9 Anwendungen außerhalb der Wahrscheinlichkeitsrechnung


  • 10 Siehe auch


  • 11 Literatur


  • 12 Weblinks


  • 13 Einzelnachweise





Geschichte |




Gaußsche Glockenkurve auf einem deutschen Zehn-Mark-Schein der 1990er Jahre


Im Jahre 1733 zeigte Abraham de Moivre in seiner Schrift The Doctrine of Chances im Zusammenhang mit seinen Arbeiten am Grenzwertsatz für Binomialverteilungen eine Abschätzung des Binomialkoeffizienten, die als Vorform der Normalverteilung gedeutet werden kann.[1]
Die für die Normierung der Normalverteilungsdichte zur Wahrscheinlichkeitsdichte notwendige Berechnung des nichtelementaren Integrals


e−12t2dt=2π{displaystyle int _{-infty }^{infty }e^{-{frac {1}{2}}t^{2}}mathrm {d} t={sqrt {2pi }}}int _{-infty }^{infty }e^{-{frac {1}{2}}t^{2}}mathrm {d} t={sqrt {2pi }}

gelang Pierre-Simon Laplace im Jahr 1782 (nach anderen Quellen Poisson).
Im Jahr 1809 publizierte Gauß sein Werk Theoria motus corporum coelestium in sectionibus conicis solem ambientium (dt.: Theorie der Bewegung der in Kegelschnitten sich um die Sonne bewegenden Himmelskörper), das neben der Methode der kleinsten Quadrate und der Maximum-Likelihood-Schätzung die Normalverteilung definiert.
Ebenfalls Laplace war es, der 1810 den Satz vom zentralen Grenzwert bewies, der die Grundlage der theoretischen Bedeutung der Normalverteilung darstellt und de Moivres Arbeit am Grenzwertsatz für Binomialverteilungen abschloss.
Adolphe Quetelet erkannte schließlich bei Untersuchungen des Brustumfangs von mehreren tausend Soldaten im Jahr 1844 eine verblüffende Übereinstimmung mit der Normalverteilung und brachte die Normalverteilung in die angewandte Statistik. Er hat vermutlich die Bezeichnung „Normalverteilung“ geprägt.[2]



Definition |


Eine stetige Zufallsvariable X{displaystyle X}X hat eine (Gauß-) oder Normalverteilung mit Erwartungswert μ{displaystyle mu }mu und Varianz σ2{displaystyle sigma ^{2}}sigma ^{2} (<∞2>0{displaystyle -infty <mu <infty ,sigma ^{2}>0}{displaystyle -infty <mu <infty ,sigma ^{2}>0}), oft geschrieben als X∼N(μ2){displaystyle Xsim {mathcal {N}}left(mu ,sigma ^{2}right)}{displaystyle Xsim {mathcal {N}}left(mu ,sigma ^{2}right)}, wenn X{displaystyle X}X die folgende Wahrscheinlichkeitsdichte hat:[3][4]



f(x∣μ2)=12πσ2exp⁡(−(x−μ)22σ2)=12πσ2e−(x−μ)22σ2−<x<∞{displaystyle f(xmid mu ,sigma ^{2})={frac {1}{sqrt {2pi sigma ^{2}}}}operatorname {exp} left(-{frac {(x-mu )^{2}}{2sigma ^{2}}}right)={frac {1}{sqrt {2pi sigma ^{2}}}}e^{-{frac {(x-mu )^{2}}{2sigma ^{2}}}}quad -infty <x<infty }{displaystyle f(xmid mu ,sigma ^{2})={frac {1}{sqrt {2pi sigma ^{2}}}}operatorname {exp} left(-{frac {(x-mu )^{2}}{2sigma ^{2}}}right)={frac {1}{sqrt {2pi sigma ^{2}}}}e^{-{frac {(x-mu )^{2}}{2sigma ^{2}}}}quad -infty <x<infty }.

Der Graph dieser Dichtefunktion hat eine „glockenförmige Gestalt“ und ist symmetrisch mit dem Parameter μ{displaystyle mu }mu als Symmetriezentrum, der auch den Erwartungswert, den Median und den Modus der Verteilung darstellt. Die Varianz von X{displaystyle X}X ist der Parameter σ2{displaystyle sigma ^{2}}sigma ^{2}. Weiterhin hat die Wahrscheinlichkeitsdichte Wendepunkte bei x=μ±σ{displaystyle x=mu pm sigma }x=mu pm sigma .


Die Wahrscheinlichkeitsdichte einer normalverteilten Zufallsvariable hat kein definites Integral, das in geschlossener Form lösbar ist, sodass Wahrscheinlichkeiten numerisch berechnet werden müssen. Die Wahrscheinlichkeiten können mithilfe einer Standardnormalverteilungstabelle berechnet werden, die eine Standardform verwendet. Um das zu sehen, benutzt man die Tatsache, dass eine lineare Funktion einer normalverteilten Zufallsvariablen selbst wieder normalverteilt ist. Konkret heißt das, wenn X∼N(μ2){displaystyle Xsim {mathcal {N}}left(mu ,sigma ^{2}right)}{displaystyle Xsim {mathcal {N}}left(mu ,sigma ^{2}right)} und Y=aX+b{displaystyle Y=aX+b}Y=aX+b, wobei a{displaystyle a}a und b{displaystyle b}b Konstanten sind mit a≠0{displaystyle aneq 0}aneq 0, dann gilt Y∼N(aμ+b,a2σ2){displaystyle Ysim {mathcal {N}}left(amu +b,a^{2}sigma ^{2}right)}{displaystyle Ysim {mathcal {N}}left(amu +b,a^{2}sigma ^{2}right)}. Als Folgerung daraus ergibt sich die Zufallsvariable[5]




Dichtefunktion φ(x)=12πe−12x2{displaystyle varphi (x)={tfrac {1}{sqrt {2pi }}}e^{-{frac {1}{2}}x^{2}}}{displaystyle varphi (x)={tfrac {1}{sqrt {2pi }}}e^{-{frac {1}{2}}x^{2}}} einer normalverteilten Zufallsvariable



Z=1σ(X−μ)∼N(0,1){displaystyle Z={frac {1}{sigma }}(X-mu )sim {mathcal {N}}(0,1)}{displaystyle Z={frac {1}{sigma }}(X-mu )sim {mathcal {N}}(0,1)},

die auch standardnormalverteilte Zufallsvariable Z{displaystyle Z}Z genannt wird. Die Standardnormalverteilung ist also die Normalverteilung mit Parametern μ=0{displaystyle mu =0}mu =0 und σ2=1{displaystyle sigma ^{2}=1}sigma ^{2}=1. Die Dichtefunktion der Standardnormalverteilung ist gegeben durch



φ(x)=12πe−12x2−<x<∞{displaystyle varphi (x)={frac {1}{sqrt {2pi }}}e^{-{frac {1}{2}}x^{2}}quad -infty <x<infty }{displaystyle varphi (x)={frac {1}{sqrt {2pi }}}e^{-{frac {1}{2}}x^{2}}quad -infty <x<infty }.

Ihr Verlauf ist nebenstehend graphisch dargestellt.


Die mehrdimensionale Verallgemeinerung ist im Artikel mehrdimensionale Normalverteilung zu finden.



Eigenschaften |



Verteilungsfunktion |


Die Verteilungsfunktion der Normalverteilung ist durch


F(x)=1σxe−12(t−μσ)2dt{displaystyle F(x)={frac {1}{sigma {sqrt {2pi }}}}int _{-infty }^{x}e^{-{frac {1}{2}}left({frac {t-mu }{sigma }}right)^{2}}mathrm {d} t}F(x)={frac {1}{sigma {sqrt {2pi }}}}int _{-infty }^{x}e^{-{frac {1}{2}}left({frac {t-mu }{sigma }}right)^{2}}mathrm {d} t

gegeben. Wenn man durch die Substitution t=σz+μ{displaystyle t=sigma z+mu }{displaystyle t=sigma z+mu } statt t{displaystyle t}t eine neue Integrationsvariable z:=t−μσ{displaystyle z:={tfrac {t-mu }{sigma }}}{displaystyle z:={tfrac {t-mu }{sigma }}} einführt, ergibt sich


F(x)=12π(x−μ)/σe−12z2dz=Φ(x−μσ).{displaystyle F(x)={frac {1}{sqrt {2pi }}}int limits _{-infty }^{(x-mu )/sigma }e^{-{frac {1}{2}}z^{2}}mathrm {d} z=Phi left({frac {x-mu }{sigma }}right).}{displaystyle F(x)={frac {1}{sqrt {2pi }}}int limits _{-infty }^{(x-mu )/sigma }e^{-{frac {1}{2}}z^{2}}mathrm {d} z=Phi left({frac {x-mu }{sigma }}right).}

Dabei ist Φ{displaystyle Phi }Phi die Verteilungsfunktion der Standardnormalverteilung


Φ(x)=12πxe−12t2dt.{displaystyle Phi (x)={frac {1}{sqrt {2pi }}}int _{-infty }^{x}e^{-{frac {1}{2}}t^{2}}mathrm {d} t.}Phi (x)={frac {1}{sqrt {2pi }}}int _{-infty }^{x}e^{-{frac {1}{2}}t^{2}}mathrm {d} t.


Symmetrie |


Der Graph der Wahrscheinlichkeitsdichte f: R→R{displaystyle fcolon mathbb {R} to mathbb {R} }fcolon  mathbb {R} to mathbb {R} ist eine Gaußsche Glockenkurve, deren Höhe und Breite von σ{displaystyle sigma }sigma abhängt. Sie ist achsensymmetrisch zur Geraden mit der Gleichung x=μ{displaystyle x=mu }{displaystyle x=mu } und somit eine symmetrische Wahrscheinlichkeitsverteilung um ihren Erwartungswert. Der Graph der Verteilungsfunktion F{displaystyle F}F ist punktsymmetrisch zum Punkt ;0,5).{displaystyle (mu ;0{,}5).}(mu ;0{,}5). Für μ=0{displaystyle mu =0}mu =0 gilt insbesondere φ(−x)=φ(x){displaystyle varphi (-x)=varphi (x)}varphi (-x)=varphi (x) und Φ(−x)=1−Φ(x){displaystyle Phi (-x)=1-Phi (x)}Phi (-x)=1-Phi (x) für alle x∈R{displaystyle xin mathbb {R} }xin mathbb {R} .



Maximalwert und Wendepunkte der Dichtefunktion |


Mit Hilfe der ersten und zweiten Ableitung lassen sich der Maximalwert und die Wendepunkte bestimmen. Die erste Ableitung ist


f′(x)=−x−μσ2f(x).{displaystyle f'(x)=-{frac {x-mu }{sigma ^{2}}}f(x).}f'(x)=-{frac {x-mu }{sigma ^{2}}}f(x).

Das Maximum der Dichtefunktion der Normalverteilung liegt demnach bei xmax=μ{displaystyle x_{mathrm {max} }=mu }x_{mathrm {max} }=mu und beträgt dort fmax=1σ{displaystyle f_{mathrm {max} }={tfrac {1}{sigma {sqrt {2pi }}}}}{displaystyle f_{mathrm {max} }={tfrac {1}{sigma {sqrt {2pi }}}}}.


Die zweite Ableitung lautet



f″(x)=1σ2(1σ2(x−μ)2−1)f(x){displaystyle f''(x)={frac {1}{sigma ^{2}}}left({frac {1}{sigma ^{2}}}(x-mu )^{2}-1right)f(x)}{displaystyle f''(x)={frac {1}{sigma ^{2}}}left({frac {1}{sigma ^{2}}}(x-mu )^{2}-1right)f(x)}.

Somit liegen die Wendestellen der Dichtefunktion bei x=μ±σ{displaystyle x=mu pm sigma }x=mu pm sigma . Die Dichtefunktion hat an den Wendestellen den Wert e{displaystyle {tfrac {1}{sigma {sqrt {2pi e}}}}}{tfrac {1}{sigma {sqrt {2pi e}}}}.



Normierung |



Dichte einer zentrierten Normalverteilung δa(x)=1πa⋅e−x2a2{displaystyle delta _{a}(x)={tfrac {1}{{sqrt {pi }}a}}cdot e^{-{frac {x^{2}}{a^{2}}}}} delta_{a}(x)=tfrac {1}{sqrt{pi}a} cdot e^{-frac {x^2}{a^2}}.
Für a→0{displaystyle ato 0}ato 0 wird die Funktion immer höher und schmaler, der Flächeninhalt bleibt jedoch unverändert 1.


Wichtig ist, dass die gesamte Fläche unter der Kurve gleich 1{displaystyle 1}1, also gleich der Wahrscheinlichkeit des sicheren Ereignisses, ist. Somit folgt, dass, wenn zwei Gaußsche Glockenkurven dasselbe μ{displaystyle mu }mu , aber unterschiedliches σ{displaystyle sigma }sigma haben, die Kurve mit dem größeren σ{displaystyle sigma }sigma breiter und niedriger ist (da ja beide zugehörigen Flächen jeweils den Wert 1{displaystyle 1}1 haben und nur die Standardabweichung größer ist). Zwei Glockenkurven mit gleichem σ,{displaystyle sigma ,}sigma , aber unterschiedlichem μ{displaystyle mu }mu haben kongruente Graphen, die um die Differenz der μ{displaystyle mu }mu -Werte parallel zur x{displaystyle x}x-Achse gegeneinander verschoben sind.


Jede Normalverteilung ist tatsächlich normiert, denn mit Hilfe der linearen Substitution z=x−μσ{displaystyle z={tfrac {x-mu }{sigma }}}z={tfrac {x-mu }{sigma }} erhalten wir



e−12(x−μσ)2dx=12πe−12z2dz=1{displaystyle int _{-infty }^{infty }{frac {1}{sigma {sqrt {2pi }}}}e^{-{frac {1}{2}}left({frac {x-mu }{sigma }}right)^{2}}mathrm {d} x={frac {1}{sqrt {2pi }}}int _{-infty }^{infty }e^{-{frac {1}{2}}z^{2}}mathrm {d} z=1}{displaystyle int _{-infty }^{infty }{frac {1}{sigma {sqrt {2pi }}}}e^{-{frac {1}{2}}left({frac {x-mu }{sigma }}right)^{2}}mathrm {d} x={frac {1}{sqrt {2pi }}}int _{-infty }^{infty }e^{-{frac {1}{2}}z^{2}}mathrm {d} z=1}.

Für die Normiertheit des letzteren Integrals siehe Fehlerintegral.



Berechnung |


Da sich Φ(z){displaystyle Phi (z)}Phi (z) nicht auf eine elementare Stammfunktion zurückführen lässt, wurde für die Berechnung früher meist auf Tabellen zurückgegriffen (siehe Standardnormalverteilungstabelle). Heutzutage sind in statistischen Programmiersprachen wie zum Beispiel R Funktionen verfügbar, die auch die Transformation auf beliebige μ{displaystyle mu }mu und σ{displaystyle sigma }sigma beherrschen.



Erwartungswert |


Der Erwartungswert der Standardnormalverteilung ist 0{displaystyle 0}{displaystyle 0}. Es sei X∼N(0,1){displaystyle Xsim {mathcal {N}}left(0,1right)}Xsim {mathcal {N}}left(0,1right), so gilt


E⁡(X)=12π+∞x e−12x2dx=0,{displaystyle operatorname {E} (X)={frac {1}{sqrt {2pi }}}int limits _{-infty }^{+infty }x e^{-{frac {1}{2}}x^{2}}mathrm {d} x=0,}operatorname {E} (X)={frac {1}{sqrt {2pi }}}int limits _{-infty }^{+infty }x e^{-{frac {1}{2}}x^{2}}mathrm {d} x=0,

da der Integrand integrierbar und punktsymmetrisch ist.




Ist nun Y∼N(μ2){displaystyle Ysim {mathcal {N}}left(mu ,sigma ^{2}right)}{displaystyle Ysim {mathcal {N}}left(mu ,sigma ^{2}right)}, so gilt X=(Y−μ)/σ{displaystyle X=(Y-mu )/sigma }X=(Y-mu )/sigma ist standardnormalverteilt, und somit


E⁡(Y)=E⁡X+μ)=σE⁡(X)⏟=0+μ.{displaystyle operatorname {E} (Y)=operatorname {E} (sigma X+mu )=sigma underbrace {operatorname {E} (X)} _{=0}+mu =mu .}operatorname {E} (Y)=operatorname {E} (sigma X+mu )=sigma underbrace {operatorname {E} (X)} _{=0}+mu =mu .


Varianz und weitere Streumaße |


Die Varianz der 2){displaystyle (mu ,sigma ^{2})}(mu ,sigma ^{2})-normalverteilten Zufallsvariablen entspricht dem Parameter σ2{displaystyle sigma ^{2}}sigma ^{2}



Var⁡(X)=12πσ2∫(x−μ)2e−(x−μ)22σ2dx=σ2{displaystyle operatorname {Var} (X)={frac {1}{sqrt {2pi sigma ^{2}}}}int _{-infty }^{infty }(x-mu )^{2}e^{-{frac {(x-mu )^{2}}{2sigma ^{2}}}},mathrm {d} x=sigma ^{2}}{displaystyle operatorname {Var} (X)={frac {1}{sqrt {2pi sigma ^{2}}}}int _{-infty }^{infty }(x-mu )^{2}e^{-{frac {(x-mu )^{2}}{2sigma ^{2}}}},mathrm {d} x=sigma ^{2}}.

Ein elementarer Beweis wird Poisson zugeschrieben.


Die mittlere absolute Abweichung ist σ0,80σ{displaystyle {sqrt {frac {2}{pi }}},sigma approx 0{,}80sigma }{sqrt {frac {2}{pi }}},sigma approx 0{,}80sigma und der Interquartilsabstand 1,349σ{displaystyle approx 1{,}349sigma }approx 1{,}349sigma .



Standardabweichung der Normalverteilung |


Eindimensionale Normalverteilungen werden durch Angabe von Erwartungswert μ{displaystyle mu }mu und Varianz σ2{displaystyle sigma ^{2}}sigma ^{2} vollständig beschrieben. Ist also X{displaystyle X}X eine μ{displaystyle mu }mu -σ2{displaystyle sigma ^{2}}sigma ^{2}-verteilte Zufallsvariable – in Symbolen X∼N(μ2){displaystyle Xsim {mathcal {N}}(mu ,sigma ^{2})}X sim mathcal{N}(mu,sigma^2) –, so ist ihre Standardabweichung einfach σX=σ2=σ{displaystyle sigma _{X}={sqrt {sigma ^{2}}}=sigma }sigma_X = sqrt{sigma^2} = sigma.



Streuintervalle |




Intervalle um μ{displaystyle mu }mu bei der Normalverteilung


Aus der Standardnormalverteilungstabelle ist ersichtlich, dass für normalverteilte Zufallsvariablen jeweils ungefähr



68,3 % der Realisierungen im Intervall μ±σ{displaystyle mu pm sigma }mupmsigma,

95,4 % im Intervall μ±{displaystyle mu pm 2sigma }mupm 2sigma und

99,7 % im Intervall μ±{displaystyle mu pm 3sigma }mupm 3sigma


liegen. Da in der Praxis viele Zufallsvariablen annähernd normalverteilt sind, werden diese Werte aus der Normalverteilung oft als Faustformel benutzt. So wird beispielsweise σ{displaystyle sigma }sigma oft als die halbe Breite des Intervalls angenommen, das die mittleren zwei Drittel der Werte in einer Stichprobe umfasst, siehe Quantil.




Normalverteilung (a) und kontaminierte Normalverteilung (b)


Diese Praxis ist aber nicht empfehlenswert, denn sie kann zu sehr großen Fehlern führen. Zum Beispiel ist die Verteilung P=0,9⋅N(μ2)+0,1⋅N(μ,(10σ)2){displaystyle P=0{,}9cdot {mathcal {N}}(mu ,sigma ^{2})+0{,}1cdot {mathcal {N}}(mu ,(10sigma )^{2})}{displaystyle P=0{,}9cdot {mathcal {N}}(mu ,sigma ^{2})+0{,}1cdot {mathcal {N}}(mu ,(10sigma )^{2})} optisch kaum von der Normalverteilung zu unterscheiden (siehe Bild), aber bei ihr liegen im Intervall μ±σ¯{displaystyle mu pm {overline {sigma }}}{displaystyle mu pm {overline {sigma }}} 92,5 % der Werte, wobei σ¯{displaystyle {overline {sigma }}}{displaystyle {overline {sigma }}} die Standardabweichung von P{displaystyle P}P bezeichnet. Solche kontaminierten Normalverteilungen sind in der Praxis sehr häufig; das genannte Beispiel beschreibt die Situation, wenn zehn Präzisionsmaschinen etwas herstellen, aber eine davon schlecht justiert ist und zehnmal weniger präzise als die anderen neun produziert.


Werte außerhalb der zwei- bis dreifachen Standardabweichung werden oft als Ausreißer behandelt. Ausreißer können ein Hinweis auf grobe Fehler der Datenerfassung sein. Es kann den Daten aber auch eine stark schiefe Verteilung zugrunde liegen. Andererseits liegt bei einer Normalverteilung im Durchschnitt ca. jeder 20. Messwert außerhalb der zweifachen Standardabweichung und ca. jeder 500. Messwert außerhalb der dreifachen Standardabweichung.


Da der Anteil der Werte außerhalb der sechsfachen Standardabweichung mit ca. 2 ppb verschwindend klein wird, gilt ein solches Intervall als gutes Maß für eine nahezu vollständige Abdeckung aller Werte. Das wird im Qualitätsmanagement durch die Methode Six Sigma genutzt, indem die Prozessanforderungen Toleranzgrenzen von mindestens {displaystyle 6sigma }{displaystyle 6sigma } vorschreiben. Allerdings geht man dort von einer langfristigen Erwartungswertverschiebung um 1,5 Standardabweichungen aus, sodass der zulässige Fehleranteil auf 3,4 ppm steigt. Dieser Fehleranteil entspricht einer viereinhalbfachen Standardabweichung (4,5 σ{displaystyle 4{,}5 sigma }{displaystyle 4{,}5 sigma }). Ein weiteres Problem der {displaystyle 6sigma }{displaystyle 6sigma }-Methode ist, dass die {displaystyle 6sigma }{displaystyle 6sigma }-Punkte praktisch nicht bestimmbar sind. Bei unbekannter Verteilung (d. h., wenn es sich nicht ganz sicher um eine Normalverteilung handelt) grenzen zum Beispiel die Extremwerte von 1.400.000.000 Messungen ein 75-%-Konfidenzintervall für die {displaystyle 6sigma }{displaystyle 6sigma }-Punkte ein.[6]




Abhängigkeit der Wahrscheinlichkeit (Prozent innerhalb) von der Größe des Streuintervalls p(z){displaystyle p(z)}p(z)




Abhängigkeit der Streuintervallgrenze von der eingeschlossenen Wahrscheinlichkeit z(p){displaystyle z(p)}z(p)







































































































































































Erwartete Anteile der Werte einer normalverteilten Zufallsvariablen innerhalb bzw. außerhalb der Streuintervalle +zσ){displaystyle left(mu -zsigma ,mu +zsigma right)}{displaystyle left(mu -zsigma ,mu +zsigma right)}

{displaystyle zsigma }{displaystyle zsigma }
Prozent innerhalb
Prozent außerhalb
ppb außerhalb
Bruchteil außerhalb

0,674490σ{displaystyle 0{,}674490sigma }{displaystyle 0{,}674490sigma }
50 %
50 %
500.000.000
1 / 2

0,994458σ{displaystyle 0{,}994458sigma }{displaystyle 0{,}994458sigma }
68 %
32 %
320.000.000
1 / 3,125

{displaystyle 1sigma }{displaystyle 1sigma }
68,268 9492 %
31,731 0508 %
317.310.508
1 / 3,151 4872

1,281552σ{displaystyle 1{,}281552sigma }{displaystyle 1{,}281552sigma }
80 %
20 %
200.000.000
1 / 5

1,644854σ{displaystyle 1{,}644854sigma }{displaystyle 1{,}644854sigma }
90 %
10 %
100.000.000
1 / 10

1,959964σ{displaystyle 1{,}959964sigma }{displaystyle 1{,}959964sigma }
95 %
5 %
50.000.000
1 / 20

{displaystyle 2sigma }{displaystyle 2sigma }
95,449 9736 %
4,550 0264 %
45.500.264
1 / 21,977 895

2,575829σ{displaystyle 2{,}575829sigma }{displaystyle 2{,}575829sigma }
99 %
1 %
10.000.000
1 / 100

{displaystyle 3sigma }3sigma
99,730 0204 %
0,269 9796 %
2.699.796
1 / 370,398

3,290527σ{displaystyle 3{,}290527sigma }{displaystyle 3{,}290527sigma }
99,9 %
0,1 %
1.000.000
1 / 1.000

3,890592σ{displaystyle 3{,}890592sigma }{displaystyle 3{,}890592sigma }
99,99 %
0,01 %
100.000
1 / 10.000

{displaystyle 4sigma }{displaystyle 4sigma }
99,993 666 %
0,006 334 %
63.340
1 / 15.787

4,417173σ{displaystyle 4{,}417173sigma }{displaystyle 4{,}417173sigma }
99,999 %
0,001 %
10.000
1 / 100.000

4,891638σ{displaystyle 4{,}891638sigma }{displaystyle 4{,}891638sigma }
99,9999 %
0,0001 %
1.000
1 / 1.000.000

{displaystyle 5sigma }{displaystyle 5sigma }
99,999 942 6697 %
0,000 057 3303 %
573,3303
1 / 1.744.278

5,326724σ{displaystyle 5{,}326724sigma }{displaystyle 5{,}326724sigma }
99,999 99 %
0,000 01 %
100
1 / 10.000.000

5,730729σ{displaystyle 5{,}730729sigma }{displaystyle 5{,}730729sigma }
99,999 999 %
0,000 001 %
10
1 / 100.000.000

{displaystyle 6sigma }{displaystyle 6sigma }
99,999 999 8027 %
0,000 000 1973 %
1,973
1 / 506.797.346

6,109410σ{displaystyle 6{,}109410sigma }{displaystyle 6{,}109410sigma }
99,999 9999 %
0,000 0001 %
1
1 / 1.000.000.000

6,466951σ{displaystyle 6{,}466951sigma }{displaystyle 6{,}466951sigma }
99,999 999 99 %
0,000 000 01 %
0,1
1 / 10.000.000.000

6,806502σ{displaystyle 6{,}806502sigma }{displaystyle 6{,}806502sigma }
99,999 999 999 %
0,000 000 001 %
0,01
1 / 100.000.000.000

{displaystyle 7sigma }{displaystyle 7sigma }
99,999 999 999 7440 %
0,000 000 000 256 %
0,002 56
1 / 390.682.215.445

Die Wahrscheinlichkeiten p{displaystyle p}p für bestimmte Streuintervalle +zσ]{displaystyle [mu -zsigma ;mu +zsigma ]}[mu -zsigma ;mu +zsigma ] können berechnet werden als



p=2Φ(z)−1{displaystyle p=2Phi (z)-1}p=2Phi (z)-1,

wobei Φ(z)=12πze−x22dx{displaystyle Phi (z)={frac {1}{sqrt {2pi }}}int _{-infty }^{z}e^{-{frac {x^{2}}{2}}},mathrm {d} x}{displaystyle Phi (z)={frac {1}{sqrt {2pi }}}int _{-infty }^{z}e^{-{frac {x^{2}}{2}}},mathrm {d} x} die Verteilungsfunktion der Standardnormalverteilung ist.


Umgekehrt können für gegebenes p∈(0,1){displaystyle pin (0,1)}pin (0,1) durch


z=Φ1(p+12){displaystyle z=Phi ^{-1}left({frac {p+1}{2}}right)}z=Phi ^{{-1}}left({frac  {p+1}{2}}right)

die Grenzen des zugehörigen Streuintervalls +zσ]{displaystyle [mu -zsigma ;mu +zsigma ]}[mu -zsigma ;mu +zsigma ] mit Wahrscheinlichkeit p{displaystyle p}p berechnet werden.



Ein Beispiel (mit Schwankungsbreite) |


Die Körpergröße des Menschen ist näherungsweise normalverteilt. Bei einer Stichprobe von 1.284 Mädchen und 1.063 Jungen zwischen 14 und 18 Jahren wurde bei den Mädchen eine durchschnittliche Körpergröße von 166,3 cm (Standardabweichung 6,39 cm) und bei den Jungen eine durchschnittliche Körpergröße von 176,8 cm (Standardabweichung 7,46 cm) gemessen.[7]


Demnach lässt obige Schwankungsbreite erwarten, dass 68,3 % der Mädchen eine Körpergröße im Bereich 166,3 cm ± 6,39 cm und 95,4 % im Bereich 166,3 cm ± 12,78 cm haben,



  • 16 % [≈ (100 % − 68,3 %)/2] der Mädchen kleiner als 160 cm (und 16 % entsprechend größer als 173 cm) sind und

  • 2,5 % [≈ (100 % − 95,4 %)/2] der Mädchen kleiner als 154 cm (und 2,5 % entsprechend größer als 179 cm) sind.


Für die Jungen lässt sich erwarten, dass 68 % eine Körpergröße im Bereich 176,8 cm ± 7,46 cm und 95 % im Bereich 176,8 cm ± 14,92 cm haben,



  • 16 % der Jungen kleiner als 169 cm (und 16 % größer als 184 cm) und

  • 2,5 % der Jungen kleiner als 162 cm (und 2,5 % größer als 192 cm) sind.



Variationskoeffizient |


Aus Erwartungswert μ{displaystyle mu }mu und Standardabweichung σ{displaystyle sigma }sigma der N(μ2){displaystyle {mathcal {N}}(mu ,sigma ^{2})}{mathcal {N}}(mu ,sigma ^{2})-Verteilung erhält man unmittelbar den Variationskoeffizienten


VarK=σμ.{displaystyle operatorname {VarK} ={frac {sigma }{mu }}.}operatorname {VarK} ={frac {sigma }{mu }}.


Schiefe |


Die Schiefe besitzt unabhängig von den Parametern μ{displaystyle mu }mu und σ{displaystyle sigma }sigma immer den Wert 0{displaystyle 0}{displaystyle 0}.



Wölbung |


Die Wölbung ist ebenfalls von μ{displaystyle mu }mu und σ{displaystyle sigma }sigma unabhängig und ist gleich 3{displaystyle 3}3. Um die Wölbungen anderer Verteilungen besser einschätzen zu können, werden sie oft mit der Wölbung der Normalverteilung verglichen. Dabei wird die Wölbung der Normalverteilung auf 0{displaystyle 0}{displaystyle 0} normiert (Subtraktion von 3); diese Größe wird als Exzess bezeichnet.



Kumulanten |


Die kumulantenerzeugende Funktion ist


gX(t)=μt+σ2t22{displaystyle g_{X}(t)=mu t+{frac {sigma ^{2}t^{2}}{2}}}g_{X}(t)=mu t+{frac {sigma ^{2}t^{2}}{2}}

Damit ist die erste Kumulante κ1=μ{displaystyle kappa _{1}=mu }kappa _{1}=mu , die zweite ist κ2=σ2{displaystyle kappa _{2}=sigma ^{2}}kappa _{2}=sigma ^{2} und alle weiteren Kumulanten verschwinden.



Charakteristische Funktion |


Die charakteristische Funktion für eine standardnormalverteilte Zufallsvariable Z∼N(0,1){displaystyle Zsim {mathcal {N}}(0,1)}Zsim {mathcal {N}}(0,1) ist



φZ(t)=e−12t2{displaystyle varphi _{Z}(t)=e^{-{frac {1}{2}}t^{2}}}{displaystyle varphi _{Z}(t)=e^{-{frac {1}{2}}t^{2}}}.

Für eine Zufallsvariable X∼N(μ2){displaystyle Xsim {mathcal {N}}(mu ,sigma ^{2})}Xsim {mathcal {N}}(mu ,sigma ^{2}) erhält man daraus mit X=σZ+μ{displaystyle X=sigma Z+mu }{displaystyle X=sigma Z+mu }:



φX(t)=E⁡(eit(σZ+μ))=E⁡(eitσZeitμ)=eitμE⁡(eitσZ)=eitμφZ(σt)=exp⁡{itμ12σ2t2}{displaystyle varphi _{X}(t)=operatorname {E} (e^{it(sigma Z+mu )})=operatorname {E} (e^{itsigma Z}e^{itmu })=e^{itmu }operatorname {E} (e^{itsigma Z})=e^{itmu }varphi _{Z}(sigma t)=exp left{itmu -{tfrac {1}{2}}sigma ^{2}t^{2}right}}{displaystyle varphi _{X}(t)=operatorname {E} (e^{it(sigma Z+mu )})=operatorname {E} (e^{itsigma Z}e^{itmu })=e^{itmu }operatorname {E} (e^{itsigma Z})=e^{itmu }varphi _{Z}(sigma t)=exp left{itmu -{tfrac {1}{2}}sigma ^{2}t^{2}right}}.


Momenterzeugende Funktion |


Die momenterzeugende Funktion der Normalverteilung lautet



mX(t)=exp⁡t+σ2t22}{displaystyle m_{X}(t)=exp left{mu t+{frac {sigma ^{2}t^{2}}{2}}right}}{displaystyle m_{X}(t)=exp left{mu t+{frac {sigma ^{2}t^{2}}{2}}right}}.


Momente |


Die Zufallsvariable X{displaystyle X}X sei N(μ2){displaystyle {mathcal {N}}(mu ,sigma ^{2})}{mathcal {N}}(mu ,sigma ^{2})-verteilt.
Dann sind ihre ersten Momente wie folgt:


























































Ordnung

Moment

zentrales Moment

k{displaystyle k}k

E⁡(Xk){displaystyle operatorname {E} (X^{k})}operatorname {E} (X^{k})

E⁡((X−μ)k){displaystyle operatorname {E} ((X-mu )^{k})}{displaystyle operatorname {E} ((X-mu )^{k})}
0 1{displaystyle 1}1
1{displaystyle 1}1
1 μ{displaystyle mu }mu
0{displaystyle 0}{displaystyle 0}
2 μ2+σ2{displaystyle mu ^{2}+sigma ^{2}}mu ^{2}+sigma ^{2}
σ2{displaystyle sigma ^{2}}sigma ^{2}
3 μ3+3μσ2{displaystyle mu ^{3}+3mu sigma ^{2}}mu ^{3}+3mu sigma ^{2}
0{displaystyle 0}{displaystyle 0}
4 μ4+6μ2+3σ4{displaystyle mu ^{4}+6mu ^{2}sigma ^{2}+3sigma ^{4}}mu ^{4}+6mu ^{2}sigma ^{2}+3sigma ^{4}
4{displaystyle 3sigma ^{4}}3sigma ^{4}
5 μ5+10μ2+15μσ4{displaystyle mu ^{5}+10mu ^{3}sigma ^{2}+15mu sigma ^{4}}mu ^{5}+10mu ^{3}sigma ^{2}+15mu sigma ^{4}
0{displaystyle 0}{displaystyle 0}
6 μ6+15μ2+45μ4+15σ6{displaystyle mu ^{6}+15mu ^{4}sigma ^{2}+45mu ^{2}sigma ^{4}+15sigma ^{6}}mu ^{6}+15mu ^{4}sigma ^{2}+45mu ^{2}sigma ^{4}+15sigma ^{6}
15σ6{displaystyle 15sigma ^{6}}15sigma ^{6}
7 μ7+21μ2+105μ4+105μσ6{displaystyle mu ^{7}+21mu ^{5}sigma ^{2}+105mu ^{3}sigma ^{4}+105mu sigma ^{6}}mu ^{7}+21mu ^{5}sigma ^{2}+105mu ^{3}sigma ^{4}+105mu sigma ^{6}
0{displaystyle 0}{displaystyle 0}
8 μ8+28μ2+210μ4+420μ6+105σ8{displaystyle mu ^{8}+28mu ^{6}sigma ^{2}+210mu ^{4}sigma ^{4}+420mu ^{2}sigma ^{6}+105sigma ^{8}}mu ^{8}+28mu ^{6}sigma ^{2}+210mu ^{4}sigma ^{4}+420mu ^{2}sigma ^{6}+105sigma ^{8}
105σ8{displaystyle 105sigma ^{8}}105sigma ^{8}

Alle zentralen Momente μn{displaystyle mu _{n}}mu _{n} lassen sich durch die Standardabweichung σ{displaystyle sigma }sigma darstellen:


μn={0wenn n ungerade(n−1)!!⋅σnwenn n gerade{displaystyle mu _{n}={begin{cases}0&{text{wenn }}n{text{ ungerade}}\(n-1)!!cdot sigma ^{n}&{text{wenn }}n{text{ gerade}}end{cases}}}mu _{n}={begin{cases}0&{text{wenn }}n{text{ ungerade}}\(n-1)!!cdot sigma ^{n}&{text{wenn }}n{text{ gerade}}end{cases}}

dabei wurde die Doppelfakultät verwendet:


(n−1)!!=(n−1)⋅(n−3)⋅3⋅1fu¨rn gerade.{displaystyle (n-1)!!=(n-1)cdot (n-3)cdot ldots cdot 3cdot 1quad mathrm {f{ddot {u}}r} ;n{text{ gerade}}.}{displaystyle (n-1)!!=(n-1)cdot (n-3)cdot ldots cdot 3cdot 1quad mathrm {f{ddot {u}}r} ;n{text{ gerade}}.}

Auch für X∼N(μ2){displaystyle Xsim {mathcal {N}}(mu ,sigma ^{2})}{displaystyle Xsim {mathcal {N}}(mu ,sigma ^{2})} kann eine Formel für nicht-zentrale Momente angegeben werden. Dafür transformiert man Z∼N(0,1){displaystyle Zsim {mathcal {N}}(0,1)}Zsim {mathcal {N}}(0,1) und wendet den binomischen Lehrsatz an.


E⁡(Xk)=E⁡((σZ+μ)k)=∑j=0k(kj)E⁡(Zj)σk−j=∑i=0⌊k/2⌋(k2i)E⁡(Z2i)σ2iμk−2i=∑i=0⌊k/2⌋(k2i)(2i−1)!!σ2iμk−2i.{displaystyle operatorname {E} (X^{k})=operatorname {E} ((sigma Z+mu )^{k})=sum _{j=0}^{k}{k choose j}operatorname {E} (Z^{j})sigma ^{j}mu ^{k-j}=sum _{i=0}^{lfloor k/2rfloor }{k choose 2i}operatorname {E} (Z^{2i})sigma ^{2i}mu ^{k-2i}=sum _{i=0}^{lfloor k/2rfloor }{k choose 2i}(2i-1)!!sigma ^{2i}mu ^{k-2i}.}{displaystyle operatorname {E} (X^{k})=operatorname {E} ((sigma Z+mu )^{k})=sum _{j=0}^{k}{k choose j}operatorname {E} (Z^{j})sigma ^{j}mu ^{k-j}=sum _{i=0}^{lfloor k/2rfloor }{k choose 2i}operatorname {E} (Z^{2i})sigma ^{2i}mu ^{k-2i}=sum _{i=0}^{lfloor k/2rfloor }{k choose 2i}(2i-1)!!sigma ^{2i}mu ^{k-2i}.}


Invarianz gegenüber Faltung |


Die Normalverteilung ist invariant gegenüber der Faltung, d. h., die Summe unabhängiger normalverteilter Zufallsvariablen ist wieder normalverteilt. Somit bildet die Normalverteilung eine Faltungshalbgruppe in ihren beiden Parametern. Eine veranschaulichende Formulierung dieses Sachverhaltes lautet: Die Faltung einer Gaußkurve der Halbwertsbreite Γa{displaystyle Gamma _{a}}Gamma _{a} mit einer Gaußkurve der Halbwertsbreite Γb{displaystyle Gamma _{b}}Gamma _{b} ergibt wieder eine Gaußkurve mit der Halbwertsbreite


Γc=Γa2+Γb2.{displaystyle Gamma _{c}={sqrt {Gamma _{a}^{2}+Gamma _{b}^{2}}}.}Gamma _{c}={sqrt {Gamma _{a}^{2}+Gamma _{b}^{2}}}.

Sind also X,Y{displaystyle X,Y}X,Y zwei unabhängige Zufallsvariablen mit


X∼N(μX,σX2), Y∼N(μY,σY2),{displaystyle Xsim {mathcal {N}}(mu _{X},sigma _{X}^{2}), Ysim {mathcal {N}}(mu _{Y},sigma _{Y}^{2}),}Xsim {mathcal {N}}(mu _{X},sigma _{X}^{2}), Ysim {mathcal {N}}(mu _{Y},sigma _{Y}^{2}),

so ist deren Summe ebenfalls normalverteilt:


X+Y∼N(μX+μY,σX2+σY2){displaystyle X+Ysim {mathcal {N}}(mu _{X}+mu _{Y},sigma _{X}^{2}+sigma _{Y}^{2})}X+Ysim {mathcal {N}}(mu _{X}+mu _{Y},sigma _{X}^{2}+sigma _{Y}^{2})

Das kann beispielsweise mit Hilfe von charakteristischen Funktionen gezeigt werden, indem man verwendet, dass die charakteristische Funktion der Summe das Produkt der charakteristischen Funktionen der Summanden ist (vgl. Faltungssatz der Fouriertransformation).


Gegeben seien allgemeiner n{displaystyle n}n unabhängige und normalverteilte Zufallsvariablen Xi∼N(μi,σi2){displaystyle X_{i}sim {mathcal {N}}(mu _{i},sigma _{i}^{2})}X_{i}sim {mathcal {N}}(mu _{i},sigma _{i}^{2}).
Dann ist deren Summe wieder normalverteilt


i=1nXi∼N(∑i=1nμi,∑i=1nσi2){displaystyle sum _{i=1}^{n}X_{i}sim {mathcal {N}}left(sum _{i=1}^{n}mu _{i},sum _{i=1}^{n}sigma _{i}^{2}right)}sum _{i=1}^{n}X_{i}sim {mathcal {N}}left(sum _{i=1}^{n}mu _{i},sum _{i=1}^{n}sigma _{i}^{2}right)

und das arithmetische Mittel ebenfalls


1n∑i=1nXi∼N(1n∑i=1nμi,1n2∑i=1nσi2).{displaystyle {frac {1}{n}}sum _{i=1}^{n}X_{i}sim {mathcal {N}}left({frac {1}{n}}sum _{i=1}^{n}mu _{i},{frac {1}{n^{2}}}sum _{i=1}^{n}sigma _{i}^{2}right).}{frac {1}{n}}sum _{i=1}^{n}X_{i}sim {mathcal {N}}left({frac {1}{n}}sum _{i=1}^{n}mu _{i},{frac {1}{n^{2}}}sum _{i=1}^{n}sigma _{i}^{2}right).

Nach dem Satz von Cramér gilt sogar die Umkehrung: Ist eine normalverteilte Zufallsvariable die Summe von unabhängigen Zufallsvariablen, dann sind die Summanden ebenfalls normalverteilt.


Die Dichtefunktion der Normalverteilung ist ein Fixpunkt der Fourier-Transformation, d. h., die Fourier-Transformierte einer Gaußkurve ist wieder eine Gaußkurve. Das Produkt der Standardabweichungen dieser korrespondierenden Gaußkurven ist konstant; es gilt die Heisenbergsche Unschärferelation.



Entropie |


Die Normalverteilung hat die Entropie: log⁡e){displaystyle log left(sigma {sqrt {2,pi ,e}}right)}log left(sigma {sqrt {2,pi ,e}}right).


Da sie für gegebenen Erwartungswert und gegebene Varianz die größte Entropie unter allen Verteilungen hat, wird sie in der Maximum-Entropie-Methode oft als A-priori-Wahrscheinlichkeit verwendet.



Beziehungen zu anderen Verteilungsfunktionen |



Transformation zur Standardnormalverteilung |


Eine Normalverteilung mit beliebigen μ{displaystyle mu }mu und σ{displaystyle sigma }sigma und der Verteilungsfunktion F{displaystyle F}F hat, wie oben erwähnt, die nachfolgende Beziehung zur N(0,1){displaystyle {mathcal {N}}(0,1)}{mathcal {N}}(0,1)-Verteilung:



F(x)=Φ(x−μσ){displaystyle F(x)=Phi left({tfrac {x-mu }{sigma }}right)}{displaystyle F(x)=Phi left({tfrac {x-mu }{sigma }}right)}.

Darin ist Φ{displaystyle Phi }Phi die Verteilungsfunktion der Standardnormalverteilung.


Wenn X∼N(μ2){displaystyle Xsim {mathcal {N}}(mu ,sigma ^{2})}Xsim {mathcal {N}}(mu ,sigma ^{2}), dann führt die Z-Transformation


Z=X−μσ{displaystyle Z={frac {X-mu }{sigma }}}Z={frac {X-mu }{sigma }}

zu einer standardnormalverteilten Zufallsvariablen Z{displaystyle Z}Z, denn



P(Z≤z)=P(X−μσz)=P(X≤σz+μ)=F(σz+μ)=Φ(z){displaystyle P(Zleq z)=Pleft({tfrac {X-mu }{sigma }}leq zright)=Pleft(Xleq sigma z+mu right)=F(sigma z+mu )=Phi (z)}{displaystyle P(Zleq z)=Pleft({tfrac {X-mu }{sigma }}leq zright)=Pleft(Xleq sigma z+mu right)=F(sigma z+mu )=Phi (z)}.

Geometrisch betrachtet entspricht die durchgeführte Substitution einer flächentreuen Transformation der Glockenkurve von N(μ2){displaystyle {mathcal {N}}(mu ;sigma ^{2})}{mathcal {N}}(mu ;sigma ^{2}) zur Glockenkurve von N(0,1){displaystyle {mathcal {N}}(0,1)}{mathcal {N}}(0,1).



Approximation der Binomialverteilung durch die Normalverteilung |



Die Normalverteilung kann zur Approximation der Binomialverteilung verwendet werden, wenn der Stichprobenumfang hinreichend groß und in der Grundgesamtheit der Anteil der gesuchten Eigenschaft weder zu groß noch zu klein ist (Satz von Moivre-Laplace, zentraler Grenzwertsatz).


Ist ein Bernoulli-Versuch mit n{displaystyle n}n voneinander unabhängigen Stufen (bzw. Zufallsexperimenten) mit einer Erfolgswahrscheinlichkeit p{displaystyle p}p gegeben, so lässt sich die Wahrscheinlichkeit für k{displaystyle k}k Erfolge allgemein durch P(X=k)=(nk)⋅pk⋅(1−p)n−k,k=0,1,…,n{displaystyle P(X=k)={tbinom {n}{k}}cdot p^{k}cdot (1-p)^{n-k},quad k=0,1,dotsc ,n}{displaystyle P(X=k)={tbinom {n}{k}}cdot p^{k}cdot (1-p)^{n-k},quad k=0,1,dotsc ,n} berechnen (Binomialverteilung).


Diese Binomialverteilung kann durch eine Normalverteilung approximiert werden, wenn n{displaystyle n}n hinreichend groß und p{displaystyle p}p weder zu groß noch zu klein ist. Als Faustregel dafür gilt np(1−p)≥9{displaystyle np(1-p)geq 9}np(1-p)geq 9. Für den Erwartungswert μ{displaystyle mu }mu und die Standardabweichung σ{displaystyle sigma }sigma gilt dann:



μ=n⋅p{displaystyle mu =ncdot p}{displaystyle mu =ncdot p} und σ=n⋅p⋅(1−p){displaystyle sigma ={sqrt {ncdot pcdot (1-p)}}}{displaystyle sigma ={sqrt {ncdot pcdot (1-p)}}}.

Damit gilt für die Standardabweichung σ3{displaystyle sigma geq 3}sigma geq 3.


Falls diese Bedingung nicht erfüllt sein sollte, ist die Ungenauigkeit der Näherung immer noch vertretbar, wenn gilt: np≥4{displaystyle npgeq 4}npgeq 4 und zugleich n(1−p)≥4{displaystyle n(1-p)geq 4}n(1-p)geq 4.


Folgende Näherung ist dann brauchbar:


P(x1≤X≤x2)=∑k=x1x2(nk)⋅pk⋅(1−p)n−k⏟BV≈Φ(x2+0,5−μσ)−Φ(x1−0,5−μσ)⏟NV.{displaystyle {begin{aligned}P(x_{1}leq Xleq x_{2})&=underbrace {sum _{k=x_{1}}^{x_{2}}{n choose k}cdot p^{k}cdot (1-p)^{n-k}} _{mathrm {BV} }\&approx underbrace {Phi left({frac {x_{2}+0{,}5-mu }{sigma }}right)-Phi left({frac {x_{1}-0{,}5-mu }{sigma }}right)} _{mathrm {NV} }.end{aligned}}}{begin{aligned}P(x_{1}leq Xleq x_{2})&=underbrace {sum _{k=x_{1}}^{x_{2}}{n choose k}cdot p^{k}cdot (1-p)^{n-k}} _{mathrm {BV} }\&approx underbrace {Phi left({frac {x_{2}+0{,}5-mu }{sigma }}right)-Phi left({frac {x_{1}-0{,}5-mu }{sigma }}right)} _{mathrm {NV} }.end{aligned}}

Bei der Normalverteilung wird die untere Grenze um 0,5 verkleinert und die obere Grenze um 0,5 vergrößert, um eine bessere Approximation gewährleisten zu können. Dies nennt man auch „Stetigkeitskorrektur“. Nur wenn σ{displaystyle sigma }sigma einen sehr hohen Wert besitzt, kann auf sie verzichtet werden.


Da die Binomialverteilung diskret ist, muss auf einige Punkte geachtet werden:


  • Der Unterschied zwischen <{displaystyle <}< oder {displaystyle leq }leq (sowie zwischen größer und größer gleich) muss beachtet werden (was ja bei der Normalverteilung nicht der Fall ist). Deshalb muss bei P(XBV<x){displaystyle P(X_{text{BV}}<x)}{displaystyle P(X_{text{BV}}<x)} die nächstkleinere natürliche Zahl gewählt werden, d. h.



P(XBV<x)=P(XBV≤x−1){displaystyle P(X_{text{BV}}<x)=P(X_{text{BV}}leq x-1)}{displaystyle P(X_{text{BV}}<x)=P(X_{text{BV}}leq x-1)} bzw. P(XBV>x)=P(XBV≥x+1){displaystyle P(X_{text{BV}}>x)=P(X_{text{BV}}geq x+1)}{displaystyle P(X_{text{BV}}>x)=P(X_{text{BV}}geq x+1)},

damit mit der Normalverteilung weitergerechnet werden kann.

Zum Beispiel: P(XBV<70)=P(XBV≤69){displaystyle P(X_{text{BV}}<70)=P(X_{text{BV}}leq 69)}{displaystyle P(X_{text{BV}}<70)=P(X_{text{BV}}leq 69)}


  • Außerdem ist



P(XBV≤x)=P(0≤XBV≤x){displaystyle P(X_{text{BV}}leq x)=P(0leq X_{text{BV}}leq x)}{displaystyle P(X_{text{BV}}leq x)=P(0leq X_{text{BV}}leq x)}

P(XBV≥x)=P(x≤XBV≤n){displaystyle P(X_{text{BV}}geq x)=P(xleq X_{text{BV}}leq n)}{displaystyle P(X_{text{BV}}geq x)=P(xleq X_{text{BV}}leq n)}


P(XBV=x)=P(x≤XBV≤x){displaystyle P(X_{text{BV}}=x)=P(xleq X_{text{BV}}leq x)}{displaystyle P(X_{text{BV}}=x)=P(xleq X_{text{BV}}leq x)} (unbedingt mit Stetigkeitskorrektur)


und lässt sich somit durch die oben angegebene Formel berechnen.


Der große Vorteil der Approximation liegt darin, dass sehr viele Stufen einer Binomialverteilung sehr schnell und einfach bestimmt werden können.



Beziehung zur Cauchy-Verteilung |


Der Quotient von zwei unabhängigen N(0,1){displaystyle {mathcal {N}}(0,1)}{mathcal {N}}(0,1)-standardnormalverteilten Zufallsvariablen ist Cauchy-verteilt.



Beziehung zur Chi-Quadrat-Verteilung |


Das Quadrat einer normalverteilten Zufallsvariablen hat eine Chi-Quadrat-Verteilung mit einem Freiheitsgrad. Also: Wenn Z∼N(0,1){displaystyle Zsim {mathcal {N}}(0,1)}{displaystyle Zsim {mathcal {N}}(0,1)}, dann Z2∼χ2(1){displaystyle Z^{2}sim chi ^{2}(1)}{displaystyle Z^{2}sim chi ^{2}(1)}. Weiterhin gilt: Wenn χ2(r1),χ2(r2),…2(rn){displaystyle chi ^{2}(r_{1}),chi ^{2}(r_{2}),dotsc ,chi ^{2}(r_{n})}{displaystyle chi ^{2}(r_{1}),chi ^{2}(r_{2}),dotsc ,chi ^{2}(r_{n})} gemeinsam stochastisch unabhängige Chi-Quadrat-verteilte Zufallsvariablen sind, dann gilt



Y=χ2(r1)+χ2(r2)+⋯2(rn)∼χ2(r1+⋯+rn){displaystyle Y=chi ^{2}(r_{1})+chi ^{2}(r_{2})+dotsb +chi ^{2}(r_{n})sim chi ^{2}(r_{1}+dotsb +r_{n})}{displaystyle Y=chi ^{2}(r_{1})+chi ^{2}(r_{2})+dotsb +chi ^{2}(r_{n})sim chi ^{2}(r_{1}+dotsb +r_{n})}.

Daraus folgt mit unabhängig und standardnormalverteilten Zufallsvariablen Z1,Z2,…,Zn{displaystyle Z_{1},Z_{2},dotsc ,Z_{n}}{displaystyle Z_{1},Z_{2},dotsc ,Z_{n}}:[8]


Y=Z12+⋯+Zn2∼χ2(n){displaystyle Y=Z_{1}^{2}+dotsb +Z_{n}^{2}sim chi ^{2}(n)}{displaystyle Y=Z_{1}^{2}+dotsb +Z_{n}^{2}sim chi ^{2}(n)}

Weitere Beziehungen sind:


  • Die Summe Xn−1=1σ2∑i=1n(Zi−)2{displaystyle X_{n-1}={frac {1}{sigma ^{2}}}sum _{i=1}^{n}(Z_{i}-{overline {Z}})^{2}}{displaystyle X_{n-1}={frac {1}{sigma ^{2}}}sum _{i=1}^{n}(Z_{i}-{overline {Z}})^{2}} mit :=1n∑i=1nZi{displaystyle {overline {Z}}:={frac {1}{n}}sum _{i=1}^{n}Z_{i}}{overline {Z}}:={frac {1}{n}}sum _{i=1}^{n}Z_{i} und n{displaystyle n}n unabhängigen normalverteilten Zufallsvariablen Zi∼N(μ2),i=1,…,n{displaystyle Z_{i}sim {mathcal {N}}(mu ,sigma ^{2}),;i=1,dotsc ,n}{displaystyle Z_{i}sim {mathcal {N}}(mu ,sigma ^{2}),;i=1,dotsc ,n} genügt einer Chi-Quadrat-Verteilung Xn−1∼χn−12{displaystyle X_{n-1}sim chi _{n-1}^{2}}X_{n-1}sim chi _{n-1}^{2} mit (n−1){displaystyle (n-1)}(n-1) Freiheitsgraden.

  • Mit steigender Anzahl an Freiheitsgraden (df ≫ 100) nähert sich die Chi-Quadrat-Verteilung der Normalverteilung an.

  • Die Chi-Quadrat-Verteilung wird zur Konfidenzschätzung für die Varianz einer normalverteilten Grundgesamtheit verwendet.


Beziehung zur Rayleigh-Verteilung |


Der Betrag Z=X2+Y2{displaystyle Z={sqrt {X^{2}+Y^{2}}}}{displaystyle Z={sqrt {X^{2}+Y^{2}}}} zweier unabhängiger normalverteilter Zufallsvariablen X,Y{displaystyle X,Y}X,Y, jeweils mit Mittelwert μX=μY=0{displaystyle mu _{X}=mu _{Y}=0}{displaystyle mu _{X}=mu _{Y}=0} und gleichen Varianzen σX2=σY2=σ2{displaystyle sigma _{X}^{2}=sigma _{Y}^{2}=sigma ^{2}}{displaystyle sigma _{X}^{2}=sigma _{Y}^{2}=sigma ^{2}}, ist Rayleigh-verteilt mit Parameter σ>0{displaystyle sigma >0}sigma >0.



Beziehung zur logarithmischen Normalverteilung |


Ist die Zufallsvariable X{displaystyle X}X normalverteilt mit N(μ2){displaystyle {mathcal {N}}(mu ,sigma ^{2})}{mathcal {N}}(mu ,sigma ^{2}), dann ist die Zufallsvariable Y=eX{displaystyle Y=e^{X}}Y=e^{X} logarithmisch-normalverteilt, also Y∼LN(μ2){displaystyle Ysim {mathcal {LN}}(mu ,sigma ^{2})}{displaystyle Ysim {mathcal {LN}}(mu ,sigma ^{2})}.


Die Entstehung einer logarithmischen Normalverteilung ist auf multiplikatives, die einer Normalverteilung auf additives Zusammenwirken vieler Zufallsvariablen zurückführen.



Beziehung zur F-Verteilung |


Wenn die identischen normalverteilten Zufallsvariablen X1(1),X2(1),…,Xn(1){displaystyle X_{1}^{(1)},X_{2}^{(1)},dotsc ,X_{n}^{(1)}}{displaystyle X_{1}^{(1)},X_{2}^{(1)},dotsc ,X_{n}^{(1)}} und X1(2),X2(2),…,Xn(2){displaystyle X_{1}^{(2)},X_{2}^{(2)},dotsc ,X_{n}^{(2)}}{displaystyle X_{1}^{(2)},X_{2}^{(2)},dotsc ,X_{n}^{(2)}} die Parameter



E⁡(Xi(1))=μ1,Var⁡(Xi(1))=σ1{displaystyle operatorname {E} (X_{i}^{(1)})=mu _{1},{sqrt {operatorname {Var} (X_{i}^{(1)})}}=sigma _{1}}operatorname {E} (X_{i}^{(1)})=mu _{1},{sqrt {operatorname {Var} (X_{i}^{(1)})}}=sigma _{1}

E⁡(Xi(2))=μ2,Var⁡(Xi(2))=σ2{displaystyle operatorname {E} (X_{i}^{(2)})=mu _{2},{sqrt {operatorname {Var} (X_{i}^{(2)})}}=sigma _{2}}operatorname {E} (X_{i}^{(2)})=mu _{2},{sqrt {operatorname {Var} (X_{i}^{(2)})}}=sigma _{2}


mit σ1=σ2=σ{displaystyle sigma _{1}=sigma _{2}=sigma }sigma _{1}=sigma _{2}=sigma besitzen, dann unterliegt die Zufallsvariable


Yn1−1,n2−1:=(n2−1)∑i=1n1(Xi(1)−(1))2(n1−1)∑j=1n2(Xi(2)−(2))2{displaystyle Y_{n_{1}-1,n_{2}-1}:={frac {(n_{2}-1)sum limits _{i=1}^{n_{1}}(X_{i}^{(1)}-{overline {X}}^{(1)})^{2}}{(n_{1}-1)sum limits _{j=1}^{n_{2}}(X_{i}^{(2)}-{overline {X}}^{(2)})^{2}}}}{displaystyle Y_{n_{1}-1,n_{2}-1}:={frac {(n_{2}-1)sum limits _{i=1}^{n_{1}}(X_{i}^{(1)}-{overline {X}}^{(1)})^{2}}{(n_{1}-1)sum limits _{j=1}^{n_{2}}(X_{i}^{(2)}-{overline {X}}^{(2)})^{2}}}}

einer F-Verteilung mit ((n1−1,n2−1)){displaystyle ((n_{1}-1,n_{2}-1))}((n_{1}-1,n_{2}-1)) Freiheitsgraden. Dabei sind



(1)=1n1∑i=1n1Xi(1),X¯(2)=1n2∑i=1n2Xi(2){displaystyle {overline {X}}^{(1)}={frac {1}{n_{1}}}sum _{i=1}^{n_{1}}X_{i}^{(1)},quad {overline {X}}^{(2)}={frac {1}{n_{2}}}sum _{i=1}^{n_{2}}X_{i}^{(2)}}{displaystyle {overline {X}}^{(1)}={frac {1}{n_{1}}}sum _{i=1}^{n_{1}}X_{i}^{(1)},quad {overline {X}}^{(2)}={frac {1}{n_{2}}}sum _{i=1}^{n_{2}}X_{i}^{(2)}}.


Beziehung zur studentschen t-Verteilung |


Wenn die unabhängigen Zufallsvariablen X1,X2,…,Xn{displaystyle X_{1},X_{2},dotsc ,X_{n}}X_1, X_2, dotsc, X_n identisch normalverteilt sind mit den Parametern μ{displaystyle mu }mu und σ{displaystyle sigma }sigma , dann unterliegt die stetige Zufallsvariable


Yn−1=X¯μS/n{displaystyle Y_{n-1}={frac {{overline {X}}-mu }{S/{sqrt {n}}}}}{displaystyle Y_{n-1}={frac {{overline {X}}-mu }{S/{sqrt {n}}}}}

mit dem Stichprobenmittel =1n∑i=1nXi{displaystyle {overline {X}}={frac {1}{n}}sum _{i=1}^{n}X_{i}}{displaystyle {overline {X}}={frac {1}{n}}sum _{i=1}^{n}X_{i}} und der Stichprobenvarianz S2=1n−1∑i=1n(Xi−)2{displaystyle S^{2}={frac {1}{n-1}}sum _{i=1}^{n}(X_{i}-{overline {X}})^{2}}{displaystyle S^{2}={frac {1}{n-1}}sum _{i=1}^{n}(X_{i}-{overline {X}})^{2}} einer studentschen t-Verteilung mit (n−1){displaystyle (n-1)}(n-1) Freiheitsgraden.


Für eine zunehmende Anzahl an Freiheitsgraden nähert sich die Student-t-Verteilung der Normalverteilung immer näher an. Als Faustregel gilt, dass man ab ca. df>30{displaystyle df>30}df>30 die Student-t-Verteilung bei Bedarf durch die Normalverteilung approximieren kann.


Die Student-t-Verteilung wird zur Konfidenzschätzung für den Erwartungswert einer normalverteilten Zufallsvariable bei unbekannter Varianz verwendet.



Rechnen mit der Standardnormalverteilung |


Bei Aufgabenstellungen, bei denen die Wahrscheinlichkeit für μ{displaystyle mu }mu -σ2{displaystyle {sigma }^{2}}{displaystyle {sigma }^{2}}-normalverteilte Zufallsvariablen durch die Standardnormalverteilung ermittelt werden soll, ist es nicht nötig, die oben angegebene Transformation jedes Mal durchzurechnen. Stattdessen wird einfach die Transformation


Z=X−μσ{displaystyle Z={frac {X-mu }{sigma }}}{displaystyle Z={frac {X-mu }{sigma }}}

verwendet, um eine N(0,1){displaystyle {mathcal {N}}(0,1)}{mathcal {N}}(0,1)-verteilte Zufallsvariable Z{displaystyle Z}Z zu erzeugen.


Die Wahrscheinlichkeit für das Ereignis, dass z. B. X{displaystyle X}X im Intervall [x,y]{displaystyle [x,y]}[x,y] liegt, ist durch folgende Umrechnung gleich einer Wahrscheinlichkeit der Standardnormalverteilung:



P(x≤X≤y)=P(x−μσX−μσy−μσ)=P(x−μσZ≤y−μσ)=Φ(y−μσ)−Φ(x−μσ){displaystyle {begin{aligned}P(xleq Xleq y)&=Pleft({frac {x-mu }{sigma }}leq {frac {X-mu }{sigma }}leq {frac {y-mu }{sigma }}right)\&=Pleft({frac {x-mu }{sigma }}leq Zleq {frac {y-mu }{sigma }}right)\&=Phi left({frac {y-mu }{sigma }}right)-Phi left({frac {x-mu }{sigma }}right)end{aligned}}}{begin{aligned}P(xleq Xleq y)&=Pleft({frac {x-mu }{sigma }}leq {frac {X-mu }{sigma }}leq {frac {y-mu }{sigma }}right)\&=Pleft({frac {x-mu }{sigma }}leq Zleq {frac {y-mu }{sigma }}right)\&=Phi left({frac {y-mu }{sigma }}right)-Phi left({frac {x-mu }{sigma }}right)end{aligned}}.


Grundlegende Fragestellungen |


Allgemein gibt die Verteilungsfunktion die Fläche unter der Glockenkurve bis zum Wert x{displaystyle x}x an, d. h., es wird das bestimmte Integral von {displaystyle -infty }-infty bis x{displaystyle x}x berechnet.


Dies entspricht in Aufgabenstellungen einer gesuchten Wahrscheinlichkeit, bei der die Zufallsvariable X{displaystyle X}X kleiner oder nicht größer als eine bestimmte Zahl x{displaystyle x}x ist. Wegen der Stetigkeit der Normalverteilung macht es keinen Unterschied, ob nun <{displaystyle <}< oder {displaystyle leq }leq verlangt ist, weil z. B.



P(X=3)=∫33f(x)dx=0{displaystyle P(X=3)=int _{3}^{3}f(x)mathrm {d} x=0}P(X=3)=int _{3}^{3}f(x)mathrm {d} x=0 und somit P(X<3)=P(X≤3){displaystyle P(X<3)=P(Xleq 3)}{displaystyle P(X<3)=P(Xleq 3)}.

Analoges gilt für „größer“ und „nicht kleiner“.


Dadurch, dass X{displaystyle X}X nur kleiner oder größer als eine Grenze sein (oder innerhalb oder außerhalb zweier Grenzen liegen) kann, ergeben sich für Aufgaben bei Wahrscheinlichkeitsberechnungen zu Normalverteilungen zwei grundlegende Fragestellungen:


  • Wie groß ist die Wahrscheinlichkeit, dass bei einem Zufallsexperiment die standardnormalverteilte Zufallsvariable Z{displaystyle Z}Z höchstens den Wert z{displaystyle z}z annimmt?
    P(Z≤z)=Φ(z){displaystyle P(Zleq z)=Phi (z)}{displaystyle P(Zleq z)=Phi (z)}



In der Schulmathematik wird für diese Aussage gelegentlich auch die Bezeichnung linker Spitz verwendet, da die Fläche unter der Gaußkurve von links bis zur Grenze verläuft. Für z{displaystyle z}z sind auch negative Werte erlaubt. Allerdings haben viele Tabellen der Standardnormalverteilung nur positive Einträge – wegen der Symmetrie der Kurve und der Negativitätsregel
Φ(−z) = 1−Φ(z){displaystyle Phi (-z) = 1-Phi (z)}Phi (-z) = 1-Phi (z)


des „linken Spitzes“ stellt dies aber keine Einschränkung dar.


  • Wie groß ist die Wahrscheinlichkeit, dass bei einem Zufallsexperiment die standardnormalverteilte Zufallsvariable Z{displaystyle Z}Z mindestens den Wert z{displaystyle z}z annimmt?


P(Z≥z)=1−Φ(z){displaystyle P(Zgeq z)=1-Phi (z)}{displaystyle P(Zgeq z)=1-Phi (z)}

Hier wird gelegentlich die Bezeichnung rechter Spitz verwendet, mit
P(Z≥z)=1−Φ(−z)=1−(1−Φ(z))=Φ(z){displaystyle P(Zgeq -z)=1-Phi (-z)=1-(1-Phi (z))=Phi (z)}{displaystyle P(Zgeq -z)=1-Phi (-z)=1-(1-Phi (z))=Phi (z)}


gibt es auch hier eine Negativitätsregel.


Da jede Zufallsvariable X{displaystyle X}X mit der allgemeinen Normalverteilung sich in die Zufallsvariable Z=X−μσ{displaystyle Z={frac {X-mu }{sigma }}}{displaystyle Z={frac {X-mu }{sigma }}} mit der Standardnormalverteilung umwandeln lässt, gelten die Fragestellungen für beide Größen gleichbedeutend.



Streubereich und Antistreubereich |


Häufig ist die Wahrscheinlichkeit für einen Streubereich von Interesse, d. h. die Wahrscheinlichkeit, dass die standardnormalverteilte Zufallsvariable Z{displaystyle Z}Z Werte zwischen z1{displaystyle z_{1}}z_{1} und z2{displaystyle z_{2}}z_{2} annimmt:


P(z1≤Z≤z2)=Φ(z2)−Φ(z1){displaystyle P(z_{1}leq Zleq z_{2})=Phi (z_{2})-Phi (z_{1})}P(z_{1}leq Zleq z_{2})=Phi (z_{2})-Phi (z_{1})

Beim Sonderfall des symmetrischen Streubereiches (z1=−z2{displaystyle z_{1}=-z_{2}}z_{1}=-z_{2}, mit z2>0{displaystyle z_{2}>0}z_{2}>0) gilt


P(−z≤Z≤z)=P(|Z|≤z)=Φ(z)−Φ(−z)=Φ(z)−(1−Φ(z))=2Φ(z)−1.{displaystyle {begin{aligned}P(-zleq Zleq z)&=P(|Z|leq z)\&=Phi (z)-Phi (-z)\&=Phi (z)-(1-Phi (z))\&=2Phi (z)-1.end{aligned}}}{begin{aligned}P(-zleq Zleq z)&=P(|Z|leq z)\&=Phi (z)-Phi (-z)\&=Phi (z)-(1-Phi (z))\&=2Phi (z)-1.end{aligned}}

Für den entsprechenden Antistreubereich ergibt sich die Wahrscheinlichkeit, dass die standardnormalverteilte Zufallsvariable Z{displaystyle Z}Z Werte außerhalb des Bereichs zwischen z1{displaystyle z_{1}}z_{1} und z2{displaystyle z_{2}}z_{2} annimmt, zu:


P(Z≤z1 oder Z≥z2)=Φ(z1)+(1−Φ(z2)).{displaystyle P(Zleq z_{1}{text{ oder }}Zgeq z_{2})=Phi (z_{1})+(1-Phi (z_{2})).}P(Zleq z_{1}{text{ oder }}Zgeq z_{2})=Phi (z_{1})+(1-Phi (z_{2})).

Somit folgt bei einem symmetrischen Antistreubereich


P(Z≤z oder Z≥z)=P(|Z|≥z)=Φ(−z)+1−Φ(z)=1−Φ(z)+1−Φ(z)=2−(z).{displaystyle {begin{aligned}P(Zleq -z{text{ oder }}Zgeq z)&=P(|Z|geq z)\&=Phi (-z)+1-Phi (z)\&=1-Phi (z)+1-Phi (z)\&=2-2Phi (z).end{aligned}}}{begin{aligned}P(Zleq -z{text{ oder }}Zgeq z)&=P(|Z|geq z)\&=Phi (-z)+1-Phi (z)\&=1-Phi (z)+1-Phi (z)\&=2-2Phi (z).end{aligned}}


Streubereiche am Beispiel der Qualitätssicherung |


Besondere Bedeutung haben beide Streubereiche z. B. bei der Qualitätssicherung von technischen oder wirtschaftlichen Produktionsprozessen. Hier gibt es einzuhaltende Toleranzgrenzen x1{displaystyle x_{1}}x_{1} und x2{displaystyle x_{2}}x_{2}, wobei es meist einen größten noch akzeptablen Abstand ϵ{displaystyle epsilon }epsilon vom Erwartungswert μ{displaystyle mu }mu (= dem optimalen Sollwert) gibt. Die Standardabweichung σ{displaystyle sigma }sigma kann hingegen empirisch aus dem Produktionsprozess gewonnen werden.


Wurde [x1;x2]=[μϵ]{displaystyle [x_{1};x_{2}]=[mu -epsilon ;mu +epsilon ]}{displaystyle [x_{1};x_{2}]=[mu -epsilon ;mu +epsilon ]} als einzuhaltendes Toleranzintervall angegeben, so liegt (je nach Fragestellung) ein symmetrischer Streu- oder Antistreubereich vor.


Im Falle des Streubereiches gilt:


P(x1≤X≤x2)=P(|X−μ|≤ϵ)=P(μϵX≤μ)=P(−ϵσZ≤ϵσ)=Φσ)−Φ(−ϵσ)=2Φσ)−1=γ.{displaystyle {begin{aligned}P(x_{1}leq Xleq x_{2})&=P(|X-mu |leq epsilon )\&=P(mu -epsilon leq Xleq mu +epsilon )\&=Pleft({frac {-epsilon }{sigma }}leq Zleq {frac {epsilon }{sigma }}right)\&=Phi left({frac {epsilon }{sigma }}right)-Phi left({frac {-epsilon }{sigma }}right)\&=2Phi left({frac {epsilon }{sigma }}right)-1\&=gamma .end{aligned}}}{begin{aligned}P(x_{1}leq Xleq x_{2})&=P(|X-mu |leq epsilon )\&=P(mu -epsilon leq Xleq mu +epsilon )\&=Pleft({frac {-epsilon }{sigma }}leq Zleq {frac {epsilon }{sigma }}right)\&=Phi left({frac {epsilon }{sigma }}right)-Phi left({frac {-epsilon }{sigma }}right)\&=2Phi left({frac {epsilon }{sigma }}right)-1\&=gamma .end{aligned}}

Der Antistreubereich ergibt sich dann aus


P(|X−μ|≥ϵ)=1−γ{displaystyle P(|X-mu |geq epsilon )=1-gamma }P(|X-mu |geq epsilon )=1-gamma

oder wenn kein Streubereich berechnet wurde durch


P(|X−μ|≥ϵ)=2⋅(1−Φσ))=α.{displaystyle P(|X-mu |geq epsilon )=2cdot left(1-Phi left({frac {epsilon }{sigma }}right)right)=alpha .}P(|X-mu |geq epsilon )=2cdot left(1-Phi left({frac {epsilon }{sigma }}right)right)=alpha .

Das Ergebnis γ{displaystyle gamma }gamma ist also die Wahrscheinlichkeit für verkaufbare Produkte, während α{displaystyle alpha }alpha die Wahrscheinlichkeit für Ausschuss bedeutet, wobei beides von den Vorgaben von μ{displaystyle mu }mu , σ{displaystyle sigma }sigma und ϵ{displaystyle epsilon }epsilon abhängig ist.


Ist bekannt, dass die maximale Abweichung ϵ{displaystyle epsilon }epsilon symmetrisch um den Erwartungswert liegt, so sind auch Fragestellungen möglich, bei denen die Wahrscheinlichkeit vorgegeben und eine der anderen Größen zu berechnen ist.



Testen auf Normalverteilung |





Quantile einer Normalverteilung und einer Chi-Quadrat-Verteilung




Eine χ²-verteilte Zufallsvariable mit 5 Freiheitsgraden wird auf Normalverteilung getestet. Für jeden Stichprobenumfang werden 10.000 Stichproben simuliert und anschließend jeweils 5 Anpassungstests zu einem Niveau von 5 % durchgeführt.


Um zu überprüfen, ob vorliegende Daten normalverteilt sind, können folgende Methoden und Tests angewandt werden:



  • Chi-Quadrat-Test

  • Kolmogorow-Smirnow-Test


  • Anderson-Darling-Test (Modifikation des Kolmogorow-Smirnow-Tests)


  • Lilliefors-Test (Modifikation des Kolmogorow-Smirnow-Tests)

  • Cramér-von-Mises-Test

  • Shapiro-Wilk-Test

  • Jarque-Bera-Test


  • Q-Q-Plot (deskriptive Überprüfung)


  • Maximum-Likelihood-Methode (deskriptive Überprüfung)


Die Tests haben unterschiedliche Eigenschaften hinsichtlich der Art der Abweichungen von der Normalverteilung, die sie erkennen. So erkennt der Kolmogorov-Smirnov-Test Abweichungen in der Mitte der Verteilung eher als Abweichungen an den Rändern, während der Jarque-Bera-Test ziemlich sensibel auf stark abweichende Einzelwerte an den Rändern („heavy tails“) reagiert.


Beim Lilliefors-Test muss im Gegensatz zum Kolmogorov-Smirnov-Test nicht standardisiert werden, d. h., μ{displaystyle mu }mu und σ{displaystyle sigma }sigma der angenommenen Normalverteilung dürfen unbekannt sein.


Mit Hilfe von Quantil-Quantil-Plots (auch Normal-Quantil-Plots oder kurz Q-Q-Plots) ist eine einfache grafische Überprüfung auf Normalverteilung möglich.
Mit der Maximum-Likelihood-Methode können die Parameter μ{displaystyle mu }mu und σ{displaystyle sigma }sigma der Normalverteilung geschätzt und die empirischen Daten mit der angepassten Normalverteilung grafisch verglichen werden.



Parameterschätzung, Konfidenzintervalle und Tests |



Viele der statistischen Fragestellungen, in denen die Normalverteilung vorkommt, sind gut untersucht. Wichtigster Fall ist das sogenannte Normalverteilungsmodell, in dem man von der Durchführung von n{displaystyle n}n unabhängigen und normalverteilten Versuchen ausgeht. Dabei treten drei Fälle auf:



  • der Erwartungswert ist unbekannt und die Varianz bekannt

  • die Varianz ist unbekannt und der Erwartungswert ist bekannt

  • Erwartungswert und Varianz sind unbekannt.


Je nachdem, welcher dieser Fälle auftritt, ergeben sich verschiedene Schätzfunktionen, Konfidenzbereiche oder Tests. Diese sind detailliert im Hauptartikel Normalverteilungsmodell zusammengefasst.


Dabei kommt den folgenden Schätzfunktionen eine besondere Bedeutung zu:


  • Das Stichprobenmittel


=1n∑i=1nXi{displaystyle {overline {X}}={frac {1}{n}}sum _{i=1}^{n}X_{i}}{displaystyle {overline {X}}={frac {1}{n}}sum _{i=1}^{n}X_{i}}

ist ein erwartungstreuer Schätzer für den unbekannten Erwartungswert sowohl für den Fall einer bekannten als auch einer unbekannten Varianz. Sowohl die Maximum-Likelihood-Methode als auch die Momentenmethode liefern das Stichprobenmittel als Schätzfunktion.


  • Die unkorrigierte Stichprobenvarianz



V(X)=1n∑i=1n(Xi−μ0)2{displaystyle V(X)={frac {1}{n}}sum _{i=1}^{n}(X_{i}-mu _{0})^{2}}{displaystyle V(X)={frac {1}{n}}sum _{i=1}^{n}(X_{i}-mu _{0})^{2}}.

ist ein erwartungstreuer Schätzer für die unbekannte Varianz bei gegebenem Erwartungswert μ0{displaystyle mu _{0}}mu _{0}. Auch sie kann sowohl aus der Maximum-Likelihood-Methode als auch aus der Momentenmethode gewonnen werden.


  • Die korrigierte Stichprobenvarianz



V∗(X)=1n−1∑i=1n(Xi−)2{displaystyle V^{*}(X)={frac {1}{n-1}}sum _{i=1}^{n}(X_{i}-{overline {X}})^{2}}{displaystyle V^{*}(X)={frac {1}{n-1}}sum _{i=1}^{n}(X_{i}-{overline {X}})^{2}}.

ist ein erwartungstreuer Schätzer für die unbekannte Varianz bei unbekanntem Erwartungswert.



Erzeugung normalverteilter Zufallszahlen |


Alle folgenden Verfahren erzeugen standardnormalverteilte Zufallszahlen. Durch lineare Transformation lassen sich hieraus beliebige normalverteilte Zufallszahlen erzeugen: Ist die Zufallsvariable x∼N(0,1){displaystyle xsim {mathcal {N}}(0,1)}xsim {mathcal {N}}(0,1)-verteilt, so ist a⋅x+b{displaystyle acdot x+b}acdot x+b schließlich N(b,a2){displaystyle {mathcal {N}}(b,a^{2})}{mathcal {N}}(b,a^{2})-verteilt.



Box-Muller-Methode |


Nach der Box-Muller-Methode lassen sich zwei unabhängige, standardnormalverteilte Zufallsvariablen X{displaystyle X}X und Y{displaystyle Y}Y aus zwei unabhängigen, gleichverteilten Zufallsvariablen U1,U2∼U(0,1){displaystyle U_{1},U_{2}sim U(0,1)}U_{1},U_{2}sim U(0,1), sogenannten Standardzufallszahlen, simulieren:


X=cos⁡(2πU1)−2ln⁡U2{displaystyle X=cos(2pi U_{1}){sqrt {-2ln U_{2}}}}{displaystyle X=cos(2pi U_{1}){sqrt {-2ln U_{2}}}}

und


Y=sin⁡(2πU1)−2ln⁡U2.{displaystyle Y=sin(2pi U_{1}){sqrt {-2ln U_{2}}}.}Y=sin(2pi U_{1}){sqrt {-2ln U_{2}}}.


Polar-Methode |



Die Polar-Methode von George Marsaglia ist auf einem Computer noch schneller, da sie keine Auswertungen von trigonometrischen Funktionen benötigt:



  1. Erzeuge zwei voneinander unabhängige, im Intervall [−1,1]{displaystyle [-1,1]}[-1, 1] gleichverteilte Zufallszahlen u1{displaystyle u_{1}}u_{1} und u2{displaystyle u_{2}}u_{2}

  2. Berechne q=u12+u22{displaystyle q=u_{1}^{2}+u_{2}^{2}}q=u_{1}^{2}+u_{2}^{2}. Falls q=0{displaystyle q=0}q=0 oder q≥1{displaystyle qgeq 1}qgeq 1, gehe zurück zu Schritt 1.

  3. Berechne p=−2⋅ln⁡qq{displaystyle p={sqrt {frac {-2cdot ln q}{q}}}}p={sqrt {frac {-2cdot ln q}{q}}}.


  4. xi=ui⋅p{displaystyle x_{i}=u_{i}cdot p}x_{i}=u_{i}cdot p für i=1,2{displaystyle i=1,2}i=1,2 liefert zwei voneinander unabhängige, standardnormalverteilte Zufallszahlen x1{displaystyle x_{1}}x_{1} und x2{displaystyle x_{2}}x_{2}.



Zwölferregel |


Der zentrale Grenzwertsatz besagt, dass sich unter bestimmten Voraussetzungen die Verteilung der Summe unabhängig, identisch verteilter Zufallszahlen einer Normalverteilung nähert.


Ein Spezialfall ist die Zwölferregel, die sich auf die Summe von zwölf Zufallszahlen aus einer Gleichverteilung auf dem Intervall [0,1] beschränkt und bereits zu passablen Verteilungen führt.


Allerdings ist die geforderte Unabhängigkeit der zwölf Zufallsvariablen Xi{displaystyle X_{i}}X_{i} bei den immer noch häufig verwendeten Linearen Kongruenzgeneratoren (LKG) nicht garantiert. Im Gegenteil wird vom Spektraltest für LKG meist nur die Unabhängigkeit von maximal vier bis sieben der Xi{displaystyle X_{i}}X_{i} garantiert. Für numerische Simulationen ist die Zwölferregel daher sehr bedenklich und sollte, wenn überhaupt, dann ausschließlich mit aufwändigeren, aber besseren Pseudo-Zufallsgeneratoren wie z. B. dem Mersenne-Twister (Standard in Python, GNU R) oder WELL genutzt werden. Andere, sogar leichter zu programmierende Verfahren, sind daher i. d. R. der Zwölferregel vorzuziehen.



Verwerfungsmethode |


Normalverteilungen lassen sich mit der Verwerfungsmethode (siehe dort) simulieren.



Inversionsmethode |


Die Normalverteilung lässt sich auch mit der Inversionsmethode berechnen.


Da das Fehlerintegral nicht explizit mit elementaren Funktionen integrierbar ist, kann man auf Reihenentwicklungen der inversen Funktion für einen Startwert und anschließende Korrektur mit dem Newtonverfahren zurückgreifen. Dazu werden erf⁡(x){displaystyle operatorname {erf} (x)}{displaystyle operatorname {erf} (x)} und erfc⁡(x){displaystyle operatorname {erfc} (x)}operatorname {erfc} (x) benötigt, die ihrerseits mit Reihenentwicklungen und Kettenbruchentwicklungen berechnet werden können – insgesamt ein relativ hoher Aufwand. Die notwendigen Entwicklungen sind in der Literatur zu finden.[9]


Entwicklung des inversen Fehlerintegrals (wegen des Pols nur als Startwert für das Newtonverfahren verwendbar):


erf−1⁡(2πx)=x(a1+x2(a2+x2(⋯))){displaystyle operatorname {erf} ^{-1}left({frac {2}{sqrt {pi }}}xright)=x{Bigl (}a_{1}+x^{2}{bigl (}a_{2}+x^{2}(dotsb ){bigr )}{Bigr )}}{displaystyle operatorname {erf} ^{-1}left({frac {2}{sqrt {pi }}}xright)=x{Bigl (}a_{1}+x^{2}{bigl (}a_{2}+x^{2}(dotsb ){bigr )}{Bigr )}}

mit den Koeffizienten


ai=1,13,730,127630,436922680,34807178200,…{displaystyle {begin{aligned}a_{i}&=1,{tfrac {1}{3}},{tfrac {7}{30}},{tfrac {127}{630}},{tfrac {4369}{22680}},{tfrac {34807}{178200}},dotsc end{aligned}}}{displaystyle {begin{aligned}a_{i}&=1,{tfrac {1}{3}},{tfrac {7}{30}},{tfrac {127}{630}},{tfrac {4369}{22680}},{tfrac {34807}{178200}},dotsc end{aligned}}}


Anwendungen außerhalb der Wahrscheinlichkeitsrechnung |


Die Normalverteilung lässt sich auch zur Beschreibung nicht direkt stochastischer Sachverhalte verwenden, etwa in der Physik für das Amplitudenprofil der Gauß-Strahlen und andere Verteilungsprofile.


Zudem findet sie Verwendung in der Gabor-Transformation.



Siehe auch |



  • Additives weißes gaußsches Rauschen

  • Lineare Regression



Literatur |


  • Stephen M. Stigler: The history of statistics: the measurement of uncertainty before 1900. Belknap Series. Harvard University Press, 1986. ISBN 9780674403413.


Weblinks |



 Commons: Normalverteilung – Sammlung von Bildern, Videos und Audiodateien


 Wikibooks: Anschauliche Darstellung der Normalverteilung – Lern- und Lehrmaterialien


  • Anschauliche Erklärung der Normalverteilung mit interaktivem Graphen


  • Darstellung mit Programmcode in Visual Basic

  • Online-Rechner Normalverteilung



Einzelnachweise |




  1. Wolfgang Götze, Christel Deutschmann, Heike Link: Statistik. Lehr- und Übungsbuch mit Beispielen aus der Tourismus- und Verkehrswirtschaft. Oldenburg, München 2002, ISBN 3-486-27233-0, S. 170 (eingeschränkte Vorschau in der Google-Buchsuche). 


  2. Hans Wußing: Von Gauß bis Poincaré: Mathematik und Industrielle Revolution. S. 33.


  3. Bei ex{displaystyle e^{x}}e^{x} handelt es sich um die Exponentialfunktion mit der Basis e.{displaystyle e.}e.


  4. George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T. C. Lee: Introduction to the Theory and Practice of Econometrics. 1988, S. 47.


  5. George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T. C. Lee: Introduction to the Theory and Practice of Econometrics. 1988, S. 48.


  6. H. Schmid, A. Huber: Measuring a Small Number of Samples and the 3σ Fallacy. (PDF) In: IEEE Solid-State Circuits Magazine. Bd. 6, Nr. 2, 2014, S. 52–58, doi:10.1109/MSSC.2014.2313714.


  7. Mareke Arends: Epidemiologie bulimischer Symptomatik unter 10-Klässlern in der Stadt Halle. Dissertation. Martin-Luther-Universität Halle-Wittenberg, 2005, Tabelle 9, S. 30. urn:nbn:de:gbv:3-000008151


  8. George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T. C. Lee: Introduction to the Theory and Practice of Econometrics. 1988, S. 49.


  9. William B. Jones, W. J. Thron: Continued Fractions: Analytic Theory and Applications. Addison Wesley, 1980.


.mw-parser-output div.BoxenVerschmelzen{border:1px solid #AAAAAA;clear:both;font-size:95%;margin-top:1.5em;padding-top:2px}.mw-parser-output div.BoxenVerschmelzen div.NavFrame{border:none;font-size:100%;margin:0;padding-top:0}

.mw-parser-output div.NavFrame{border:1px solid #A2A9B1;clear:both;font-size:95%;margin-top:1.5em;min-height:0;padding:2px;text-align:center}.mw-parser-output div.NavPic{float:left;padding:2px}.mw-parser-output div.NavHead{background-color:#EAECF0;font-weight:bold}.mw-parser-output div.NavFrame:after{clear:both;content:"";display:block}.mw-parser-output div.NavFrame+div.NavFrame,.mw-parser-output div.NavFrame+link+div.NavFrame{margin-top:-1px}.mw-parser-output .NavToggle{float:right;font-size:x-small}












Popular posts from this blog

横浜市

Rostock

Europa