decadimento - puzzle online
Nella teoria della probabilità la distribuzione normale, o di Gauss (o gaussiana) dal nome del matematico tedesco Carl Friedrich Gauss, è una distribuzione di probabilità continua che è spesso usata come prima approssimazione per descrivere variabili casuali a valori reali che tendono a concentrarsi attorno a un singolo valor medio. Il grafico della funzione di densità di probabilità associata è simmetrico e ha una forma a campana, nota come campana di Gauss (o anche come curva degli errori, curva a campana, ogiva).
La distribuzione normale è considerata il caso base delle distribuzioni di probabilità continue a causa del suo ruolo nel teorema del limite centrale.
Un insieme di valori dato potrebbe essere normale: per stabilirlo si può usare un test di normalità.
Più specificamente, assumendo certe condizioni, la somma di n variabili casuali con media e varianza finite tende a una distribuzione normale al tendere di n all'infinito. Grazie a questo teorema, la distribuzione normale si incontra spesso nelle applicazioni pratiche, venendo usata in statistica e nelle scienze naturali e sociali come un semplice modello per fenomeni complessi.
La distribuzione normale dipende da due parametri, la media μ e la varianza σ2, ed è indicata tradizionalmente con:
N
(
μ
;
σ
2
)
.
{\displaystyle \ N(\mu ;\sigma ^{2}).}
Metodologia
La distribuzione normale è caratterizzata dalla seguente funzione di densità di probabilità, cui spesso si fa riferimento con la dizione curva di Gauss o gaussiana:
f
(
x
)
=
1
σ
2
π
e
−
(
x
−
μ
)
2
2
σ
2
con
x
∈
R
{\displaystyle f(x)={\frac {1}{\sigma {\sqrt {2\pi }}}}\;e^{-{\frac {\left(x-\mu \right)^{2}}{2\sigma ^{2}}}}~{\mbox{ con }}~x\in \mathbb {R} }
.Dove
μ
{\displaystyle \mu }
è il valore atteso e
σ
2
{\displaystyle \sigma ^{2}}
la varianza.
Per dimostrare che
p
X
(
x
)
{\displaystyle p_{X}(x)}
è effettivamente una funzione di densità di probabilità si ricorre innanzi tutto alla
standardizzazione (statistica) della variabile casuale, cioè alla trasformazione tale per cui risulta:
Z
=
x
−
μ
σ
{\displaystyle Z={\frac {x-\mu }{\sigma }}}
,dove la variabile risultante
−
∞
<
Z
<
+
∞
{\displaystyle -\infty ha anch'essa distribuzione normale con parametri μ = 0 {\displaystyle \mu =0} e σ = 1 {\displaystyle \sigma =1} . L'integrale della funzione di densità di probabilità della variabile casuale standardizzata Z {\displaystyle Z} è il seguente: S = ∫ − ∞ + ∞ p Z ( z ) d z = ∫ − ∞ + ∞ 1 2 π e − z 2 2 d z {\displaystyle S=\int _{-\infty }^{+\infty }p_{Z}(z)dz=\int _{-\infty }^{+\infty }{\frac {1}{\sqrt {2\pi }}}e^{-{\frac {z^{2}}{2}}}dz} Dato che deve necessariamente valere la condizione S = 1 {\displaystyle S=1} , allora risulta anche S 2 = 1 {\displaystyle S^{2}=1} quindi: S 2 = ∫ − ∞ + ∞ p Z ( z ) d z ∫ − ∞ + ∞ p Y ( y ) d y {\displaystyle S^{2}=\int _{-\infty }^{+\infty }p_{Z}(z)dz\int _{-\infty }^{+\infty }p_{Y}(y)dy} S 2 = 1 2 π ∫ − ∞ + ∞ ∫ − ∞ + ∞ e − z 2 + y 2 2 d z d y {\displaystyle S^{2}={\frac {1}{2\pi }}\int _{-\infty }^{+\infty }\int _{-\infty }^{+\infty }e^{-{\frac {z^{2}+y^{2}}{2}}}dzdy} dove anche la variabile casuale Y {\displaystyle Y} ha distribuzione normale standardizzata.