In questo appunto spieghiamo la differenza tra i concetti di distribuzione di probabilità e distribuzione di densità di probabilità. Questo appunto è rivolto a chi si sta avvicinando allo studio statistico dei fenomeni. In particolare in questo appunto vedremo:

Per ulteriori appunti di statistica rimandiamo alla ricerca mediante la barra di ricerca in alto.

Concetto di probabilità e di distribuzione

Nel corso dei secoli sono state fornite diverse definizioni al concetto di probabilità. La definizione che proponiamo qui, e che più facilmente è riscontrabile nella nostra esperienza quotidiana è la definizione classica. Secondo tale definizione la probabilità che si verifiche un evento è data dal rapporto del numero dei casi favorevoli rispetto al numero dei casi possibili. Come esempio si consideri il lancio di due dadi e di voler determinare la probabilità che escano 2 sei:

Osservando tutti i possibili casi (36) e contando i casi favorevoli (1 solo caso), possiamo concludere che la probabilità di avere 2 sei è pari ad 1/36. Sapere qual è la probabilità con la quale un determinato evento possa verificarsi è spesso un dato fondamentale per poter prendere una decisione o valutare un rischio.

Quando si studia un evento da un punto di vista probabilistico, lo scopo è quello di calcolare la probabilità che qualsiasi esito possibile dell’evento si manifesti. Consideriamo ad esempio l’evento “somma di due dadi”. Studiare l’evento da un punto di vista probabilistico significa calcolare la probabilità che ciascun possibile esito si manifesti. Dunque è necessario calcolare la probabilità che la somma dei due dadi sia 2, 3,4 ,5 ….12. Dallo studio otterremmo il seguente grafico:

Si noti che la variabile somma di due dati è una variabile discreta, ovvero è un tipo di variabile che ammette solo alcuni valori (in questo caso valori interi). Non ha alcun senso chiedersi quale sia la probabilità che la somma dei due dadi sia 4,5. Ammettiamo di identificare una funzione P(x) con x inteso come somma dei due dati che fornisca per ciascun valore della somma la probabilità che essa si manifesti. Ad esempio per x=7:

P(7) = 1,6\overline{7}

Tale funzione è detta distribuzione di probabilità e nel caso di variabili discrete si dice funzione di massa di probabilità. Di distribuzioni di probabilità a variabili discrete ne esistono diverse. Tra le più famose abbiamo la distribuzione binomiale e la distribuzione di Poisson.

Distribuzione di densità di probabilità

Quando si ha a che fare con un evento i cui esiti possono variare in maniera continua, il concetto di distribuzione di probabilità assume un significato diverso. Immaginiamo ad esempio di voler studiare l’evento “quantità acqua versata in un bicchiere da un distributore automatico”. Ha senso chiedersi quale sia la probabilità che vengano erogati 1002,43 millilitri di acqua? La risposta è no. Infatti, in questo caso, in cui la quantità di acqua erogata è una variabile che varia in maniera continua ha senso chiedersi quale sia la probabilità che essa assuma un valore compreso all’interno di un determinato intervallo (ad esempio tra 1000 e 1005 ml).

In questo caso la funzione che ci fornisce informazioni circa la probabilità che il valore sia contenuto in un intervallo si dice distribuzione di densità di probabilità. Riportiamo nella seguente immagine un esempio di funzione di massa per variabili discrete ed un esempio di distribuzione di densità di probabilità:

 

graficamente la differenza principale che notiamo tra le due figure è che:

  • il grafico della funzione di massa di probabilità è tale che la probabilità che si verifiche un esito è pari all’altezza del grafico in corrispondenza di quel valore discreto
  • Il grafico della distribuzione di densità di probabilità è tale che la probabilità che un valore sia compreso in un intervallo è pari all’area del grafico sottesa tra i due estremi dell’intervallo.

Vediamo nel prossimo paragrafo come variano le proprietà di queste due funzioni.

Proprietà statistiche delle due funzioni

Partiamo dalla funzione di massa di probabilità per variabili discrete. Per ciascun valore xi della variabile discreta abbiamo:

0 \leq p(x_{i}) \leq 1 \,\,\,\, \forall x_{i} \\\,\\ P(x=x_{i}) = p(x_{i}) \\\,\\ \sum_{x_{i}} p(x_{i})=1

queste tre proprietà ci dicono quindi che:

  • ciascun valore di xi il valore della funzione di massa di probabilità è sempre compreso nell’intervallo tra 0 e 1
  • la funzione di massa di probabilità di xi esprime proprio la probabilità che si verifichi l’esito xi
  • La somma dei valori di funzione di massa di probabilità per tutti i possibili valori di xi è pari a 1. Questo perché la somma di tutte le probabilità è pari all’evento certo avente probabilità pari a 1.

Vediamo adesso cosa accade nel caso di una distribuzione di densità di probabilità che indicheremo con la notazione f(xi):

0 \leq f(x_{i}) \\\,\\ P(a \leq x_{i} \leq b) =\int^{b}_{a} f(x) dx \\\,\\ \int^{+\infty}_{-\infty} f(x)dx=1

queste proprietà ci dicono che:

  • puntualmente la distribuzione di densità di probabilità può assumere solo valori positivi. Si noti che, rispetto al caso precedente, puntualmente la distribuzione può assumere valori maggiori di 1. Questo perché il valore puntuale non indica la probabilità
  • La probabilità che la variabile sia contenuta in un intervallo è dato dell’integrale della distribuzione di densità di probabilità calcolato tra gli estremi dell’intervallo. Il valore di tale probabilità, e quindi dell’area sottesa dal corrispettivo grafico, sarà compresa tra 0 e 1
  • L’area della distribuzione di densità di probabilità tra meno infinito e + infinito è pari a 1.

Date queste differenze, vediamo come si calcolano la media e la varianza nel caso di una variabile discreta e continua.

Media

Nel caso di una variabile discreta, la media della funzione di massa di probabilità ed il valore atteso sono pari a:

\mu  = E(x) = \sum_{{i}}x_{i}p(x_{i})

da dove deriva questa formula? Sappiamo che la media è data da:

\mu = \frac{\sum_{i}x_{i}n_{i}}{N}

dove ni è il numero delle volte in cui l’esito xi si può ripetere. Ma dalla definizione di probabilità data nel primo paragrafo abbiamo che:

p(x_{i}) = \frac{n_{i}}{N}

dunque, la media della funzione di massa di probabilità per una variabile discreta è data dalla somma dei prodotti dei possibili esiti per la probabilità che questi si verifichino. Nel caso della somma di due dadi abbiamo:

\mu  = \sum_{{i}}x_{i}p(x_{i}) = 2*0,028+3*0,056+4*0,083+5*0,111+ \\\,\\ +6*0,139+7*0,167+8*0,139+9*0,111+10*0,083+11*0,056+12*0,028 = 7

Nel caso di una variabile continua la media ed il valore atteso sono invece dati dalla seguente formula:

\mu = E(x) = \int_{-\infty}^{+\infty}xf(x)dx

dunque è data dall’integrale su tutto il campo di valori del prodotto della variabile continua per la funzione di distribuzione di densità di probabilità.

Varianza

La varianza, che coincide con il valore atteso del quadrato dello scarto, e che esprime la dispersione della funzione è data, per una variabile discreta, dalla formula:

\sigma^{2} = E[(x-\mu)^{2}] = \sum_{i} (x_{i}-\mu)^{2}p_{x_{i}}

nel caso di una variabile continua essa diventa

\sigma^{2} = E[(x-\mu)^{2}] = \int_{-\infty}^{+\infty} (x_{i}-\mu)^{2}f_{x}dx
Differenza tra distribuzione di probabilità e distribuzione di densità di probabilità