In questo appunto vedremo qual è la definizione dell’operatore valore atteso e quali sono le sue principali proprietà. Il valore atteso, o speranza matematica, è uno dei concetti basilari affrontati in un corso di probabilità e statistica. In questo appunto vedremo:
- Definizione di valore atteso per una variabile aleatoria
- Principali proprietà
- Valore atteso per le principali distribuzioni di probabilità e densità di probabilità
Per ulteriori approfondimenti su tematiche e concetti di probabilità e statistica ti rimandiamo al seguente link o alla barra di ricerca posizionata in alto.
Definizione di valore atteso per una variabile aleatoria
Il valore atteso E(x) è un’operatore matematico che opera all’interno di uno spazio probabilistico e che associa ad una distribuzione in variabile reale x il centro di tale distribuzione. Tale centro della distribuzione è calcolato sommando il prodotto di tutti i possibili esiti x di un evento per la probabilità che tale esito possa verificarsi. Per capire meglio questo concetto consideriamo il caso semplice di un evento in cui la variabile x assume valori discreti quale la somma del lancio di due dadi a 6 facce. Gli esiti per la variabile x sono 11. Infatti la somma di due dadi può assumere valori: 2,3,4,5,6,7,8,9,10,11,12. Calcoliamo la probabilità per ciascuno di questi esiti. Otteniamo la tabella:

E(x) è dunque dato da:
E(x) = 1*0 + 2*0,028+ 3*0,056+4*0,083+5*0,111+6*0,139+\\\,\\+7*0,167+8*0,139+9*0,111+10*0,083+11*0,056+12*0,028+13*0 = 7
generalizziamo quanto calcolato con una formula. Nel caso dunque di una variabile aleatoria discreta come quella dell’esempio appena fatto, il valore atteso è data dalla sommatoria dei prodotti di tutti i possibili valori della variabile x per la probabilità che tale variabile possa verificarsi:
E(x) = \sum_{i=1}^{\infty} x_{i} p(x_{i})
Dunque per una variabile discreta, il valore atteso è la generalizzazione del concetto di media pesata. Nel caso di una variabile aleatoria continua avente densità di probabilità, esso è dato dal seguente integrale:
E(x) = \int_{-\infty}^{+\infty}xf(x)dx
laddove è stato utilizzato un integrale nell’intero campo dei numeri reali. In realtà sarebbe più corretto riferire l’integrale nell’intero spazio di probabilità in cui opera x che è un sottoinsieme di R. Per capire meglio la differenza tra probabilità e densità di probabilità che si genera se abbiamo a che fare con variabili continue o discrete, ti suggeriamo la lettura del seguente appunto.
Vediamo nel prossimo paragrafo quali sono le principali proprietà di questo operatore.
Principali proprietà
Vediamo di seguito alcune importanti proprietà del valore atteso la cui conoscenza è fondamentale per poterlo calcolare.
Valore atteso di una costante
Il valore atteso di una costante c è pari alla costante stessa:
E(c) = c
questa proprietà è facilmente dimostrabile considerando che la costante c può essere considerata come l’unico valore di uno spazio di probabilità avente probabilità pari a 1:
E(c) = \sum_{i=1}^{\infty} c_{i} p(c_{i}) = cp(c) = c*1=c
Prodotto di una variabile aleatoria per uno scalare
Questa proprietà ci dice che il valore atteso del prodotto di uno scalare per una variabile casuale è uguale al prodotto di quello scalare per il valore atteso della variabile casuale. Consideriamo dunque che x abbia una distribuzione continua nel suo spazio di probabilità con densità di probabilità f(x):
E(cx) = \int_{-\infty}^{+\infty}cxf(x) dx =c\int_{-\infty}^{+\infty}xf(x) dx = cE(x)
la dimostrazione per il caso di una variabile discreta è la stessa, con la sommatoria in sostituzione dell’integrale.
Proprietà additiva
Questa proprietà ci dice che il valore atteso della somma di due variabili è pari alla somma dei valori attesi delle singole variabili. Prendiamo il caso di due variabili discrete x e y e consideriamo la loro somma x+y la cui distribuzione congiunta è p(x,y). Per definizione il valore atteso è pari a:
E(x+y) = \sum_{x} \sum_{y} (x+y)p(x,y) = \sum_{x} \sum_{y} xp(x,y) + \sum_{x} \sum_{y} yp(x,y) = \\\,\\=\sum_{x}x\sum_{y}p(x,y) +\sum_{y}y\sum_{x}p(x,y) = \sum_{x}x p(x) +\sum_{y}yp(y) = E(x) +E(y)
la dimostrazione per variabili continue è la stessa sostituendo alle sommatorie gli integrali.
Linearità
Possiamo generalizzare quanto ottenuto nella proprietà additiva con la seguente proprietà lineare:
E\left(\sum_{i} x_{i}\right) = \sum_{i}E(x_{i})
inoltre, combinando le prime due proprietà, possiamo scrivere:
E\left(\sum_{i} a_{i}x_{i}\right) = \sum_{i}a_{i}E(x_{i})
Prodotto di due variabili indipendenti
Quando abbiamo due variabili x e y definite in uno spazio di probabilità ed indipendenti tra di loro, il valore atteso del loro prodotto è pari al prodotto dei loro valori attesi. Dunque abbiamo:
E(xy) = E(x)E(y)
Dimostriamo quanto scritto. Se due variabili sono indipendenti (prendiamo il caso di due variabili aletorie discrete), allora possiamo scrivere per la probabilità che:
p(x,y) = p(x)p(y)
applicando questa relazione al valore atteso del prodotto delle due variabili, possiamo scrivere:
E(xy) = \sum_{x_{i}}\sum_{y_{i}} x_{i}y_{i}p(x_{i},y_{i})=\sum_{x_{i}}\sum_{y_{i}} x_{i}y_{i}p(x_{i})p(y_{i}) = \\\,\\ =\sum_{x_{i}}x_{i}p(x_{i}) \sum_{y_{i}}y_{i}p(y_{i}) = E(x)E(y)
la stessa dimostrazione per il caso continuo può essere fatta considerando che per la distribuzione densità di probabilità abbiamo:
f(x,y) = f(x)f(y)
dunque:
E(xy) = \int_{X}\int_{Y}(xy)f(x,y)dydx = \int_{X}\int_{Y}(xy)f(x)f(y)dydx=\int_{X}xf(x)dx\int_{Y}yf(y)dy= E(x)E(y)
Nota: se le due variabili non sono indipendenti la relazione non vale! Infatti in questo caso avremmo:
E(xy) \neq E(x)E(y)
ciò accade perchè:
p(x,y) \neq p(x)p(y) \\\,\\ f(x,y) \neq f(x)f(y)
a seconda che la variabile sia discreta o continua.
Inoltre, in qualsiasi caso, sia per variabili dipendenti che indipendenti:
E\left(\frac{x}{y}\right) \neq \frac{E(x)}{E(y)}
Vediamo nel prossimo paragrafo alcuni esempi di calcolo del valore atteso per alcune distribuzioni.
Valore atteso per le principali distribuzioni di probabilità e densità di probabilità
Partiamo dalle distribuzioni di probabilità nel caso di variabili discrete.
Distribuzione di Bernoulli
La distribuzione di probabilità di Bernoulli descrive quei fenomeni che hanno due soli possibili esiti: il successo (x=1) a cui è associata una probabilità di accadimento p e l’insuccesso (x=0) al quale è associato una probabilità di accadimento q. Si tratta dunque di una distribuzione di probabilità per variabili discrete:
p(x_{i}) = p^{x_{i}}(1-p)^{1-x_{i}} \,\,\,\,\,\,\,\ x_{i}=0,1
il valore atteso per tale distribuzione sarà allora dato da:
E(x) = \sum_{x_{i}=0}^{1} x_{i} p(x_{i}) = 0*p^{0}(1-p)^{1-0} + 1*p^{1}(1-p)^{0} = 0+p = p
Per la distribuzione di Bernoulli esso coincide dunque con la probabilità di successo p
Distribuzione Binomiale
La distribuzione binomiale è utilizzata per descrivere la probabilità che si realizzi un certo numero di esiti dello stesso tipo in n eventi di tipo Bernoulli. Si tratta anche in questo caso di una distribuzione di probabilità per variabile discreta:
P(x) = \binom{n}{x}p^{x}q^{n-x}
dove p e q sono rispettivamente le probabilità si successo e di insuccesso. P(x) rappresenta la probabilità di avere x eventi di successo su n prove. Il valore atteso in questo caso sarà dato da:
E(x) = \sum_{x_{i}=0}^{n} x_{i}\binom{n}{x_{i}}p^{x_{i}}q^{n-x_{i}}
si noti che:
x_{i}\binom{n}{x_{i}} = \binom{n}{x_{i}-1}
inoltre il primo termine della sommatoria (quello con x=0) è nullo. Viste queste due note, possiamo scrivere:
E(x) = \sum_{x_{i}=0}^{n} x_{i}\binom{n}{x_{i}}p^{x_{i}}q^{n-x_{i}} = \sum_{x_{i}=1}^{n} \binom{n}{x_{i}-1}p^{x_{i}}q^{n-x_{i}}
possiamo portare fuori dal termine binomiale n. Ottenendo:
E(x) = \sum_{x_{i}=1}^{n} \binom{n}{x_{i}-1}p^{x_{i}}q^{n-x_{i}} = \sum_{x_{i}=1}^{n} n\binom{n-1}{x_{i}-1}p^{x_{i}}q^{n-x_{i}}
Adesso, poiché n e p sono costanti, possiamo portarli entrambi fuori dalla sommatoria:
E(x) = \sum_{x_{i}=1}^{n} n\binom{n-1}{x_{i}-1}p^{x_{i}}q^{n-x_{i}} = np \sum_{x_{i}=1}^{n} \binom{n-1}{x_{i}-1}p^{x_{i}-1}q^{n-x_{i}} = np \sum_{x_{i}=1}^{n} \binom{n-1}{x_{i}-1}p^{x_{i}-1}q^{(n-1)-(x_{i}-1)}
eseguiamo un cambio di variabile r= xi-1. Otteniamo:
E(x) = np \sum_{x_{i}=1}^{n} \binom{n-1}{x_{i}-1}p^{x_{i}-1}q^{(n-1)-(x_{i}-1)} = np \sum_{r=0}^{n-1} \binom{n-1}{r}p^{r}q^{(n-1)-(r)}
ma il binomio di Newton ci dice che:
(a+b)^{k} = \sum_{r=0}^{k} \binom{k}{r}a^{r}b^{k-r}
Ciò significa che:
E(x) = np \sum_{r=0}^{n-1} \binom{n-1}{r}p^{r}q^{(n-1)-(r)}= np (p+q)^{n-1}
ma nella distribuzione binomiale, p+q rappresenta contemporaneamente la probabilità di successo e di insuccesso. Per cui p+q =1. Risulta dunque che:
E(x) = np (p+q)^{n-1}= np
Dunque il valore atteso della distribuzione binomiale è pari a np.
Distribuzione di Poisson
Calcoliamo adesso il valore atteso della distribuzione di Poisson. La distribuzione di Poisson è una distribuzione a variabile discreta, utilizzata per descrivere la probabilità che possano verificarsi x eventi di un certo tipo sapendo che il numero di eventi che accadono in un determinato intervallo t è pari a lambda. La distribuzione ha dunque la seguente forma:
p(x) = \frac{(\lambda t)^{x}}{x!}e^{-\lambda t}
Eseguiamo il calcolo utilizzando la sua definizione:
E(x) = \sum_{x_{i}=0}^{\infty} x_{i} p(x_{i}) = \sum_{x_{i}=0}^{\infty} x_{i} \frac{(\lambda t)^{x_{i}}}{x_{i}!}e^{-\lambda t} =\sum_{x_{i}=0}^{\infty} \frac{(\lambda t)^{x_{i}}}{(x_{i}-1)!}e^{-\lambda t}
adesso possiamo portare fuori dalla sommatoria il termine costante lambda per t ed il termine esponenziale:
E(x) =\sum_{x_{i}=0}^{\infty} \frac{(\lambda t)^{x_{i}}}{(x_{i}-1)!}e^{-\lambda t} = \lambda t e^{-\lambda t}\sum_{x_{i}=0}^{\infty} \frac{(\lambda t)^{(x_{i}-1)}}{(x_{i}-1)!}
eseguiamo adesso un cambio di variabile: s=xi-1:
E(x) = \lambda t e^{-\lambda t}\sum_{s=1}^{\infty} \frac{(\lambda t)^{(s)}}{s!}
ma la sommatoria altro non è che la serie di Taylor della funzione esponenziale:
e^{\lambda t} = \sum_{s=1}^{\infty} \frac{(\lambda t)^{(s)}}{s!}
Dunque abbiamo:
E(x) = \lambda t e^{-\lambda t}\sum_{s=1}^{\infty} \frac{(\lambda t)^{(s)}}{s!} = \lambda t e^{-\lambda t}e^{\lambda t} =\lambda t
Ecco dunque calcolato il valore atteso della distribuzione di Poisson.
Distribuzione normale
Vediamo adesso il caso di una distribuzione a variabile continua come la distribuzione normale. La funzione che esprime la funzione normale è la seguente:
f(x) = \frac{1}{\sigma \sqrt{2 \pi}} e^{-\frac{(x-\mu)^{2}}{2\sigma^{2}}}
ricordiamo che nel caso di variabile continua, la funzione rappresenta una densità di probabilità. Calcoliamo il valore atteso di questa distribuzione applicando la sua definizione:
E(x) = \int_{-\infty}^{+\infty}xf(x) dx =\int_{-\infty}^{+\infty}x\frac{1}{\sigma \sqrt{2 \pi}} e^{-\frac{(x-\mu)^{2}}{2\sigma^{2}}} dx
per risolvere l’integrale applichiamo un cambio di variabile:
t = \frac{x-\mu}{\sqrt{2}\sigma}\,\,\,\,\,\, \Rightarrow \,\,\,\,\,\,x=\sqrt{2}\sigma t + \mu \,\,\,\,\,\, \Rightarrow \,\,\,\,\,\, dx = \sqrt{2}\sigma dt
l’integrale diventa:
E(x) = \frac{\sqrt{2} \sigma}{\sigma \sqrt{2\pi}}\int^{+\infty}_{-\infty} (\sqrt{2}\sigma t +\mu)e^{-t^{2}}dt =\frac{1}{\sqrt{\pi}} \left(\sqrt{2}\sigma\int^{+\infty}_{-\infty}te^{-t^{2}}dt+\mu\int^{+\infty}_{-\infty}e^{-t^{2}}dt\right)
il secondo termine altro non è che l’integrale di Gauss:
\int^{+\infty}_{-\infty}e^{-t^{2}}dt = \sqrt{\pi}
Dunque possiamo scrivere:
E(x) = \frac{1}{\sqrt{\pi}} \left(\sqrt{2}\sigma \left[-\frac{1}{2}e^{-t^{2}}\right]_{-\infty}^{+\infty}+\mu\sqrt{\pi}\right)
ma a meno infinito e + infinito l’esponenziale tende a zero. Dunque rimane solo il secondo termine in parentesi:
E(x) = \frac{\mu \sqrt{\pi}}{\sqrt{\pi}} = \mu
Dunque il valore atteso della distribuzione normale è pari a mu.