CasIn questo appunto diamo una definizione dell’operatore varianza e vediamo quali sono le sue principali proprietà. L’impostazione del seguente appunto segue quella utilizzata per l’operatore valore atteso. In particolare qui troverai:
- Definizione dell’operatore varianza
- Principali proprietà dell’operatore
- Calcolo per alcune distribuzioni
Per ulteriori appunti di statistica puoi proseguire al seguente link o utilizzare la barra di ricerca posizionata in alto.
Definizione dell’operatore varianza
L’operatore varianza, indicato con V(x),è una funzione che fornisce una misura di quanto i dati di un campione siano dispersi rispetto al valore atteso E(x). Essa è definita come la somma degli scarti, al quadrato, dalla media aritmetica, divisa per il numero di dati:
V[x] = \sigma^{2}_{X} = \frac{\sum_{x_{i}}^{x_{N}}(x_{i}-\overline{x})}{N}
Se consideriamo la generica definizione dell’operatore valore atteso, possiamo considerare la varianza come il valore atteso del quadrato della variabile aleatoria x centrata rispetto alla sua media:
V[x] = E[(x-E[x])^{2}]
sviluppando il quadrato e sfruttando la proprietà della linearità del valore atteso abbiamo:
V[x] = E[(x-E[x])^{2}] = E[x^{2}-2xE{x}+E[x]^{2}] = E[x^{2}]-E[2xE[x]]+E[x]^{2} =\\\,\\ = E[x^{2}]-E[x]^{2}+E[x]^{2}=E[x^{2}]-E[x]^{2}
Il che significa che la varianza può essere considerata come la differenza tra il valore atteso del quadrato della variabile aleatoria ed il quadrato del valore atteso della variabile stessa:
V[x] = E[x^{2}]-E[x]^{2}
Principali proprietà dell’operatore varianza
Vediamo adesso quali sono le principali proprietà dell’operatore varianza.
Varianza di una variabile moltiplicata per uno scalare
Consideriamo il prodotto di una variabile aleatoria x per uno scalare x. Ci chiediamo quale sia la varianza del prodotto cx. Eseguiamo il calcolo eseguendo inizialmente il cambio di variabile y=cx. Abbiamo dunque:
V[y] = E[y^{2}]-E[y]^{2} = E[c^{2}x^{2}]-E[cx]^{2}= c^{2}E[x^{2}]-c^{2}E[x]^{2} = c^{2}(E[x^{2}]-E[x]^{2})
dunque ricapitolando:
V[cx]=c^{2}V[x]
Si ricava dunque un risultato molto importante! La varianza non è una funzione lineare.
Varianza di una variabile aleatoria traslata
Vediamo adesso il caso in cui si voglia calcolare la varianza di una variabile aleatoria traslata del tipo x+c. Eseguiamo la dimostrazione:
V[x+c] = E[(x+c)^{2}]-E[x+c]^{2}= \\\,\\ =E[x^{2}+2cx+c^{2}]-E[x+c]E[x+c] = \\\,\\ =E[x^{2}]+E[2cx]+E[c^{2}]-(E[x]+E[c])(E[x]+E[c])=\\\,\\=E[x^{2}]+2cE[x]+c^{2}-E[x]^{2}-2E[x]E[c]-E[c]^{2}=\\\,\\ =E[x^{2}]+2cE[x]+c^{2}-E[x]^{2}-2cE[x]-c^{2}=\\\,\\=E[x^{2}]-E[x]^{2} =V[x]
abbiamo dunque dimostrato che:
V[x+c] = V[x]
Il risultato ci dice che traslando la distribuzione di una quantità scalare, la sua dispersione non cambia!
Mettendo insieme le prime due proprietà, abbiamo:
V[ax+c] =a^{2}V[x]
Varianza di una costante
Se la variabile x coincide con una costante c di probabilità p=1 allora la varianza di x è uguale a zero. In tutti gli altri casi la varianza assume sempre una valore positivo. Dimostrare queste due affermazioni è in realtà molto semplice. Consideriamo la definizione di varianza:
V[x] = E[(x-E[x])^{2}]
per definizione, essendo la varianza il quadrato di qualcosa, sarà per forza positivo. L’unico caso in cui la varianza può assumere valore nullo è il caso in cui:
E[x]=x
ovvero il caso di una costante!
Varianza della somma di due variabili
Date due variabili x e y, le varianze della loro somma e della loro differenza sono date da:
V[x+y] = V[x]+V[y]+2Cov[x,y] \\\,\\ V[x-y] = V[x]+V[y]-2Cov[x,y]
dove con cov si intende l’operatore covarianza. Dimostriamo il caso della somma:
V[x+y] = E[(x+y)^{2}] - E[x+y]^{2} = \\\,\\=E[x^{2}+2xy+y^{2}] - E[x+y]E[x+y]= \\\,\\ =E[x^{2}]+2E[xy]+E[y^{2}]-E[x]E[x+y]+E[y]E[x+y] = \\\,\\= E[x^{2}]+2E[xy]+E[y^{2}]- E[x]^{2}-E[y]^{2}-2E[x]E[y] =\\\,\\ =E[x^{2}]- E[x]^{2}+E[y^{2}]-E[y]^{2}+2E[xy]-2E[x]E[y] = \\\,\\ V[x]+V[y] +2(E[xy]-E[x]E[y]) = \\\,\\ =V[x]+V[y] +2Cov[x,y]
dove abbiamo assunto l’operatore covarianza essere uguale a:
Cov[x,y] = E[x,y]-E[x]E[y]
ma se le due variabili aleatorie x e y sono indipendenti tra loro la covarianza è nulla in quanto:
E[x,y] = E[x]E[y]
quindi per due variabili aleatorie indipendenti abbiamo:
V[x+y] = V[x]+V[y] \\\,\\ V[x-y] = V[x]+V[y]
Calcolo della varianza per alcune distribuzioni
Vediamo di seguito come calcolare la varianza per alcune distribuzioni
Distribuzione di Bernoulli
La distribuzione di probabilità di Bernoulli descrive quei fenomeni che hanno due soli possibili esiti: il successo (x=1) a cui è associata una probabilità di accadimento p e l’insuccesso (x=0) al quale è associato una probabilità di accadimento q. Si tratta dunque di una distribuzione di probabilità per variabili discrete:
p(x_{i}) = p^{x_{i}} (1-p)^{1-x_{i}}\,\,\,\,\,\,\,\,\,\,\, x_{i}=0,1
Calcoliamo adesso la varianza utilizzando la definizione:
V[x] = E[x^{2}]-E[x]^{2}
eseguiamo il calcolo ricordando che per la distribuzione di Bernoulli il valore atteso è pari a o e calcolando il valore atteso del quadrato ti p per la stessa distribuzione:
V[x] = E[x^{2}]-E[x]^{2} = \sum_{x_{i}=0}^{1}x_{i}^{2}p^{x_{i}}(1-p)^{1-x_{i}}-p^{2} =\\\,\\ =0*p^{0}(1-p)+p(1-p)^{0}-p^{2} =p-p^{2}= p(1-p)
dunque la varianza della distribuzione di Bernoulli è pari a p(1-p).
Distribuzione binomiale
La distribuzione binomiale è utilizzata per descrivere la probabilità che si realizzi un certo numero di esiti dello stesso tipo in n eventi di tipo Bernoulli. Si tratta anche in questo caso di una distribuzione di probabilità per variabile discreta:
P(x) = \binom{n}{x}p^{x}q^{n-x}
dove p e q sono rispettivamente le probabilità si successo e di insuccesso. P(x) rappresenta la probabilità di avere x eventi di successo su n prove. Ricordando che il valore atteso della distribuzione binomiale è pari a np, per calcolare la varianza ci serve calcolare E[x2]. Applichiamo la definizione di valore atteso:
E[x^{2}] = \sum_{x_{i}=0}^{n}x_{i}^{2}\binom{n}{x_{i}}p^{x_{i}}q^{n-x_{i}} =\\\,\\=\sum_{x_{i}=0}^{n}nx_{i}\binom{n-1}{x_{i}-1}p^{x_{i}}q^{n-x_{i}} =\\\,\\= np\sum_{x_{i}=1}^{n}x_{i}\binom{n-1}{x_{i}-1}p^{x_{i}-1}q^{(n-1)-(x_{i}-1)}
Dove è stato cambiato il limite inferiore della sommatoria da 0 a 1. Eseguiamo adesso un cambio di variabili:
j=n-1\\\,\\ k=x_{i}-1
otteniamo così:
E[x^{2}] = np\sum_{k=0}^{j}(k+1)\binom{j}{k}p^{k}q^{j-k}
dividiamo in due sommatorie:
E[x^{2}] = np\sum_{k=0}^{j}k\binom{j}{k}p^{k}q^{j-k} + np\sum_{k=0}^{j}\binom{j}{k}p^{k}q^{j-k} = \\\,\\ = np\left( \sum_{k=0}^{j}k\binom{j}{k}p^{k}q^{j-k} + \sum_{k=0}^{j}\binom{j}{k}p^{k}q^{j-k}\right) = \\\,\\ =np\left( \sum_{k=0}^{j}j\binom{j-1}{k-1}p^{k}q^{j-k} + \sum_{k=0}^{j}\binom{j}{k}p^{k}q^{j-k}\right) = \\\,\\ =np\left( jp\sum_{k=1}^{j}\binom{j-1}{k-1}p^{k-1}q^{(j-1)-(k-1)} + \sum_{k=0}^{j}\binom{j}{k}p^{k}q^{j-k}\right)
ma il binomio di Newton ci dice che:
(a+b)^{j} = \sum_{k=0}^{j} \binom{j}{k}a^{k}b^{j-k}
dunque:
\sum_{k=1}^{j}\binom{j-1}{k-1}p^{k-1}q^{(j-1)-(k-1)} = (p+q)^{j-1} \\\,\\\\\,\\\sum_{k=0}^{j}\binom{j}{k}p^{k}q^{j-k} = (p+q)^{j}
dunque abbiamo:
E[x^{2}] =np\left( jp(p+q)^{j-1} + (p+q)^{j}\right)
ricordando che j = n-1 possiamo scrivere:
E[x^{2}] =np\left( (n-1)p(p+q)^{n-2} + (p+q)^{n-1}\right)
ma poichè p+q =1 (somma di probabilità di successo e insuccesso), possiamo semplificare:
E[x^{2}] = np((n-1)p+1) = n^{2}p^{2}+np(1-p)
possiamo finalmente calcolare la varianza della distribuzione binomiale (si ricordi che il valore atteso della distribuzione binomiale è pari a np):
V[x] = E[x^{2}]-E[x]^{2} = n^{2}p^{2} + np(1-p) -(np)^{2} = np(1-p)
Varianza nel caso della distribuzione di Poisson
Calcoliamo adesso la varianza della distribuzione di Poisson. La distribuzione di Poisson è una distribuzione a variabile discreta, utilizzata per descrivere la probabilità che possano verificarsi x eventi di un certo tipo sapendo che il numero di eventi che accadono in un determinato intervallo t è pari a lambda. La distribuzione ha dunque la seguente forma:
p(x) = \frac{(\lambda t)^{x}}{x!}e^{-\lambda t}
per calcolare la varianza calcoliamo il valore atteso del quadrato di x:
E[x^{2}]= \sum_{x_{i}=0}^{\infty} x_{i}^{2}p(x_{i}) = \sum_{x_{i}=0}^{\infty} x_{i}^{2}\frac{(\lambda t)^{x_{i}}}{x_{i}!}e^{-\lambda t} =\\\,\\ = \lambda te^{-\lambda t}\sum_{x_{i}=1}^{\infty} x_{i}\frac{(\lambda t)^{(x_{i}-1)}}{(x_{i}-1)!} = \\\,\\ = \lambda te^{-\lambda t} \left( \sum_{x_{i}=1}^{\infty} (x_{i}-1)\frac{(\lambda t)^{(x_{i}-1)}}{(x_{i}-1)!} + \sum_{x_{i}=1}^{\infty} \frac{(\lambda t)^{(x_{i}-1)}}{(x_{i}-1)!}\right) = \\\,\\= \lambda te^{-\lambda t} \left( \lambda t\sum_{x_{i}=2}^{\infty} \frac{(\lambda t)^{(x_{i}-2)}}{(x_{i}-2)!} + \sum_{x_{i}=1}^{\infty} \frac{(\lambda t)^{(x_{i}-1)}}{(x_{i}-1)!}\right)
si ricordi che l’espansione in serie di Taylor della funzione esponenziale fornisce:
e^{\lambda t} = \sum_{s=1}^{\infty}\frac{(\lambda t)^{s}}{s!}
possiamo scrivere:
E[x^{2}]= \lambda te^{-\lambda t} \left( \lambda t\sum_{x_{i}=2}^{\infty} \frac{(\lambda t)^{(x_{i}-2)}}{(x_{i}-2)!} + \sum_{x_{i}=1}^{\infty} \frac{(\lambda t)^{(x_{i}-1)}}{(x_{i}-1)!}\right) = \\\,\\ = \lambda te^{-\lambda t}(\lambda t e^{\lambda t} + e^{\lambda t}) = \lambda t(\lambda t+1)
ricordando che il valore atteso della distribuzione di Poisson è pari a lambda t, abbiamo:
V[x] = E[x^{2}]-E[x]^{2} = \lambda t(\lambda t+1) - \lambda^{2}t^{2} = \lambda t
dunque nella distribuzione di Poisson, valore atteso e varianza coincidono!
Varianza nella distribuzione normale
Vediamo adesso il caso di una distribuzione a variabile continua come la distribuzione normale. La formula che esprime la funzione normale è la seguente:
f(x) = \frac{1}{\sigma \sqrt{2\pi}}e^{-\frac{(x-\mu)^{2}}{2\sigma ^{2}}}
ricordiamo che nel caso di variabile continua, la funzione rappresenta una densità di probabilità. Anche qui prima di calcolare la varianza calcoliamo il valore atteso del quadrato della variabile:
E[x^{2}] = \int_{-\infty}^{+\infty} x^{2} \frac{1}{\sigma \sqrt{2\pi}}e^{-\frac{(x-\mu)^{2}}{2\sigma ^{2}}}dx
eseguiamo subito un cambio di variabile:
t= \frac{x-\mu}{\sqrt{2}\sigma} \\\,\\ \,\,\,\,\,\, \Rightarrow \,\,\,\,\,\,\, \\\,\\ x=\sqrt{2}\sigma t+\mu \\\,\\ \,\,\,\,\,\, \Rightarrow \,\,\,\,\,\,\, \\\,\\ dx=\sqrt{2}\sigma dt
dunque riscriviamo l’integrale:
E[x^{2}] = \int_{-\infty}^{+\infty} x^{2} \frac{1}{\sigma \sqrt{2\pi}}e^{-\frac{(x-\mu)^{2}}{2\sigma ^{2}}}dx = \\\,\\ =\frac{\sigma \sqrt{2}}{\sigma \sqrt{2\pi}}\int_{-\infty}^{+\infty} (\sqrt{2}\sigma t+\mu)^{2} e^{-t^{2}}dt= \\\,\\ = \frac{1}{\sqrt{\pi}} \left(2\sigma^{2}\int_{-\infty}^{+\infty} t^{2} e^{-t^{2}}dt+2\sigma\sqrt{2}\int_{-\infty}^{+\infty}t e^{-t^{2}}dt+\mu^{2}\int_{-\infty}^{+\infty} e^{-t^{2}}dt \right)
ma alcuni di questi integrali sono noti. Come l’integrale di Gauss:
\int_{-\infty}^{+\infty}e^{-t^{2}dt} = \sqrt{\pi}
mentre possiamo facilmente risolvere:
\int_{-\infty}^{+\infty}te^{-t^{2}dt} = \left[-\frac{1}{2}e^{-t^{2}}\right]^{+\infty}_{-\infty} = 0-0=0
Per risolvere l’ultimo integrale (il primo della parentesi) dobbiamo operare ad una integrazione per parti:
2\sigma^{2} \int_{-\infty}^{+\infty}t^{2}e^{-t^{2}}dt = 2\sigma^{2} \left[ -\frac{t}{2}e^{-t^{2}}\right]_{-\infty}^{+\infty}+\sigma^{2}\int_{-\infty}^{+\infty}e^{-t^{2}}dt = \sigma^{2}\int_{-\infty}^{+\infty}e^{-t^{2}}dt = \sigma^{2}\sqrt{\pi}
sostituiamo questi tre integrali nella formula. Otteniamo::
E[x^{2}] = \frac{1}{\sqrt{\pi}} \left(2\sigma^{2}\int_{-\infty}^{+\infty} t^{2} e^{-t^{2}}dt+2\sigma\sqrt{2}\int_{-\infty}^{+\infty}t e^{-t^{2}}dt+\mu^{2}\int_{-\infty}^{+\infty} e^{-t^{2}}dt \right) =\\\,\\= \frac{1}{\sqrt{\pi}} \left(\sigma^{2}\sqrt{\pi}+0+\mu^{2}\sqrt{\pi} \right) = \sigma^{2}+\mu^{2}
calcoliamo adesso la varianza:
V[x] = E[x^{2}]-E[x]^{2} = \sigma^{2}+\mu^{2}-\mu^{2} = \sigma^{2}
abbiamo così dimostrato che la varianza per la distribuzione normale coincide con il quadrato della deviazione standard.