L’errore di una misura è importante quanto il valore della misura stessa. Se pensiamo però alla quantità immensa di dati che circolano nella realtà di oggi ci rendiamo subito conto che quasi mai il valore di una misura è accompagnato dal suo grado di incertezza. Da una parte infatti, accade di ritenere l’errore della misura talmente basso e trascurabile da non doverlo dichiarare. Dall’altra si può dire che il fatto di non esplicare il grado di incertezza di un valore sia dovuto ad un’errata impostazione del lavoro.

Dal punto di vista scientifico è di importanza assoluta saper definire l’errore di una misura. Un dato esplicato in un articolo scientifico può infatti essere il punto di partenza di calcoli più o meno complessi. Quando un dato è manipolato attraverso l’utilizzo di formule matematiche, l’errore ad esso associato si propaga inevitabilmente al risultato finale della formula. In questo appunto definiamo il concetto di errore di una misura descrivendo quali sono le forme più utilizzate per esprimerlo. In un altro appunto vedremo in che modo è possibile determinare la propagazione dell’errore quando sono utilizzate delle formule matematiche

Errore di una misura

L’errore di una misura altro non è che l’incertezza associata alla misura stessa. Quando infatti si esegue una misura è impossibile ottenere il valore vero della caratteristica che si vuole misurare. Tale scostamento tra valore misurato e valore vero può dipendere da diversi fattori che possono essere legati o allo strumento utilizzato per eseguire la misura o al personale che esegue l’azione di misurare. Non esiste infatti uno strumento capace di misurare l’esatto valore di una caratteristica in quanto l’accuratezza di uno strumento è di per se sempre limitata. Non bisogna inoltre dimenticare che l’azione stessa di misurare può essere un’azione perturbativa. Ciò significa che nel momento stesso in cui utilizzo uno strumento per eseguire una misura su un sistema, il sistema può cambiare cambiando anche il valore della caratteristica oggetto della misura.

Nell’esperienza di tutti i giorni questo effetto è talmente piccolo che quasi mai è percepito. Tuttavia, in meccanica quantistica l’impossibilità di misurare con elevata accuratezza alcune grandezze fisiche senza perturbare il sistema oggetto della misura ha portato alla definizione del principio di indeterminazione di Heisenberg.

In generale, gli errori di una misura possono essere classificati in due categorie: errori sistematici ed errori casuali. Vediamo nel prossimo paragrafo in cosa consiste questa prima classificazione.

Errore di una misura: errore sistematico o errore causale?

L’errore di una misura può essere di due tipi: sistematico o casuale. Un errore sistematico è un errore conseguente a fattori intrinseci del sistema, del metodo o dello strumento di misura e per questo motivo si verifica sistematicamente ad ogni evento di misura. Poiché questi errori si verificano sistematicamente ad ogni misura può essere difficile riconoscerli e rilevarli in tempo utile. Tali errori contribuiscono a ridurre l’accuratezza del sistema di misura. Un esempio di errore sistematico è quello che si ottiene quando si utilizza uno strumento non perfettamente tarato (es. bilancia con uno zero non appropriato). Gli errori sistematici strumentali, ovvero dovuti allo strumento di misura, possono essere intercettati e azzerati attraverso delle operazioni di calibrazione periodiche.

Un errore casuale è invece un’errore la cui entità dipende da variazioni casuali nell’universo oggetto + sistema di misura (temperatura, campo elettrico/magnetico etc..). In generale si tratta di errori che non possono essere eliminati in quanto non è possibile controllare le fluttuazioni statistiche di tutti i parametri coinvolti nel sistema. Tuttavia, l’esecuzione di misure multiple consente di ridurre l’errore associato alla misura grazie al fatto che le fluttuazioni positive e negative si annullano tra di loro. Per questo motivo l’errore casuale è detto anche errore statistico. L’errore casuale influenza la precisione del sistema di misura. Uno strumento molto preciso è caratterizzato da errori casuali molto bassi.

Insieme ai concetti di errore casuale ed errore sistematico abbiamo parlato anche di accuratezza e precisione. Per approfondire il legame tra questi concetti ti consigliamo la lettura del seguente appunto.

Vediamo adesso in che modo è possibile esprimere l’errore di una misura.

Errore di una misura: errore assoluto ed errore relativo

L’incertezza di una misura può essere espressa in diversi modi. In questo paragrafo vediamo quali sono i più comuni.

Errore assoluto

esprime la differenza tra il valore misurato ed il valore reale della caratteristica misurata. Poiché il valore reale di una caratteristica non è mai conosciuto spesso si ovvia a questo problema utilizzando il suo valore teorico. Ma cosa accade se anche questo non è disponibile? In questi casi si utilizzano degli espedienti per stimare l’errore assoluto. Se abbiamo a disposizione diverse misure della stessa caratteristica allora un espediente potrebbe essere l’utilizzo della semidispersione massima. Essa consiste nella metà della differenza tra il valore massimo ed il valore minimo misurato:

Se le misure producono lo stesso valore, allora non sarà possibile utilizzare la semidispersione massima in quanto essa sarebbe 0. In questo caso, come errore di misura si utilizza la sensibilità dello strumento utilizzato per eseguire la misura. La sensibilità dello strumento di misura è la variazione minima che lo strumento è in grado di percepire. L’errore assoluto mantiene la stessa unità di misura della grandezza per la quale esprime l’incertezza.

Errore relativo

esprime il rapporto tra l’errore assoluto ed il valore misurato. Esprimere l’errore in forma relativa consente di capire quanto è attendibile e significativa la misura eseguita. Si immagini ad esempio di eseguire delle misure di una lunghezza di una pista di 100m e di ottenere un errore assoluto di 1 cm. L’errore relativo sarà pari a:

Che risulta essere un valore molto minore di 1 e quindi accettabile. Lo stesso errore assoluto di 1 cm se presente in misure di un oggetto lungo 10 cm produce un errore relativo pari a:

spesso l’errore relativo è espresso in forma percentuale moltiplicando il suo valore per 100. Ad esempio nell’ultimo caso 0,1*100 da un errore del 10%. Nel caso precedente invece, l’errore percentuale sarebbe dello 0,01%. In genere nelle misure di laboratorio si considera accettabile una soglia massima dell’errore relativo del 5%. Chiaramente tale soglia cambia a seconda del tipo di esperimento che si conduce e del rigore richiesto.

Bisogna fare però un’importante precisazione riguardo all’errore relativo. Esso ha maggiore significato nel caso di grandezze fisiche caratterizzate da uno zero fisico (ad esempio la lunghezza). Per grandezze caratterizzate da uno zero arbitrario (come la temperatura espressa in gradi centigradi), l’errore relativo può infatti condurre ad interpretazioni errate. Immaginiamo infatti di voler misurare la temperatura di un oggetto con uno strumento di sensibilità pari a 0,5°C e di misurare una temperatura pari a 0,5°C. L’errore relativo calcolato sarebbe del 100% ma questo non ha senso perché il valore elevato dell’errore relativo in questo caso è totalmente dovuto alla scala (Celsius) utilizzata. Le stesse misure in Farenheit darebbero un errore relativo diverso (perchè cambia lo 0). Questo non accade per la lunghezza dove il passaggio dal sistema metrico a quello miglia non da alcuna variazione nel calcolo dell’errore relativo.

Deviazione standard ed errore standard

Quando si ha a che fare con un campione ampio di misure può essere utile utilizzare dei mezzi statistici per definire l’incertezza di un misura. Tuttavia spesso ciò non è corretto soprattutto perché si tende a far confusione sul reale significato statistico dei parametri scelti.

Ad esempio quando si ha a disposizione un set di misure si è portati ad esprimere l’errore in termini di deviazione standard o di errore standard. Ricordiamo che la deviazione standard è definita come:

e l’informazione che ci fornisce è relativa alla variabilità dei dati ma non da alcuna informazione circa l’accuratezza dello strumento con cui sono state eseguite le n misure a disposizione. Ad esempio, se il sistema è corrotto da un errore sistematico, la deviazione standard non è in grado di rilevarla. Può invece dare una informazione sulla precisione del sistema. Maggiore è la deviazione standard e minore è la precisione dello strumento nell’eseguire la misura. Vedremo tuttavia in seguito che se N è molto grande e le misure sono indipendenti tra di loro e le variazioni sono totalmente casuali allora è accettabile esprimere l’errore in termini di deviazione standard.

Anche l’errore standard non da informazioni sull’accuratezza del metodo di misura. Esso è definito infatti come:

e può essere considerata come la deviazione standard della distribuzione della media campionaria (vedi teorema del limite centrale). Essa quindi definisce l’intervallo intorno alla media campionaria entro la quale la media vera della popolazione è situata:

definendo così l’intervallo di confidenza della media campionaria. Per approfondire questo concetto si consiglia la lettura del seguente appunto.

Scarto di una misura

Quanto detto nel paragrafo precedente non deve però erroneamente indurre a pensare che non è possibile associare un errore al valore medio di N misure. Supponendo di voler misurare una caratteristica d si indica con di il valore della i-esima misura e con dv il valore vero di quella caratteristica. Per ciascuna i-esima misura è possibile definire l’errore come la differenza tra di e dv:

Assumendo che il valore vero di dv può essere approssimato dalla media nelle N misure a disposizione, allora l’errore ad esso associato sarebbe:

da cui:

tuttavia poiché dv non è spesso noto allora è necessario utilizzare un altro stratagemma per poter definire l’errore. Per ogni i-esima misura si definisce scarto la differenza della misura meno il valore medio:

sottraendo a ciascun errore della iesima misura il suo scarto:

da cui deriva che ciascuno scarto differisce dall’errore di una quantità pari all’errore della media. Ciò significa che se N tende ad infinito allora l’errore medio tenderà a zero e lo scarto sarà una buona approssimazione dell’errore di ciascuna singola misura.

Poiché è la media che viene utilizzata per approssimare il valore vero e poiché quest’ultimo non è noto è necessario esprimere l’errore della media mediante uno scarto medio. In questi casi si utilizza lo scarto quadratico medio s medio. Esso è definito come:

dove al numeratore troviamo la somma dei quadrati dei singoli scarti. Se N è molto grande allora lo scarto quadratico medio, può essere approssimato dalla deviazione standard:

Tuttavia come già detto prima poiché il valore vero non è noto questa stima dell’errore non rileva errori sistematici.

In conclusione abbiamo visto in quali modi è possibile esprimere l’errore di una misura diretta. Spesso però le misure dirette sono utilizzate per calcolare altre grandezze. Nei calcoli l’errore si propaga. Vediamo in questo appunto come si propaga l’errore di una o più misure.

 

Errore di una misura
Tag:                                     
%d blogger hanno fatto clic su Mi Piace per questo: