Come detto nell'articolo precedente, possono esistere più stimatori per lo stesso parametro da stimare. In questi casi, per valutare quali tra tutti è il più adatto, si verifica se sono soddisfatte o meno alcune proprietà degli stimatori.
Correttezza o non distorsione
$T_n$ si dice stimatore corretto o non distorto per un parametro $\theta$ della popolazione se il suo valore atteso coincide con il parametro, ossia
$$E(T_n)=\theta$$
In altre parole, uno stimatore è non distorto se in media i suoi valori uguagliano il parametro che stima.
Se $E(T_n)\neq\theta$ diremo che $T_n$ è uno stimatore distorto per $\theta$ e la sua distorsione sarà:
$$\bbox[#ffffff,5px,border:2px solid #ff6600]{D(T_n)=E(T_n)-\theta}$$
Ad esempio, la media della distribuzione della media campionaria coincide con la media della popolazione:
$$\mu_{\overline{X}}=E(\overline{X})=\mu$$
dunque, la media campionaria $\overline{x}$ è uno stimatore non distorto per la media della popolazione o equivalentemente la statistica $\overline{X}$ è uno stimatore non distorto per $\mu$.
Però, la media campionaria non è l'unico stimatore non distorto per $\mu$: infatti, anche la mediana campionaria è uno stimatore non distorto per la media della popolazione.
Per tale motivo, occorre un'altra proprietà che ci dica, quale tra più stime, sia migliore per stimare un parametro:
Correttezza asintotica
Uno stimatore $T_n$ è asintoticamente corretto per $\theta$ se: $$\bbox[#ffffff,5px,border:2px solid #ff6600]{\lim_{n\rightarrow +\infty} E(T_n)=\theta}$$
Efficienza
Dati due stimatori entrambi corretti di un parametro si dice stimatore più efficiente quello che ha un errore quadratico medio minore, detto in altre parole
se $T_{1,n}$ e $T_{2,n}$ sono due stimatori corretti per lo stesso parametro $\theta$, si dice che $T_{1,n}$ è più efficiente di $T_{2,n}$ se $MSE(T_{1,n}) < MSE(T_{2,n})$ dove
$$MSE(T_n)=E\left[(T_n-\theta)^2\right]$$
sta per Mean Square Error e rappresenta l'errore quadratico medio.
Si ha che $\overline{X}$ è lo stimatore più efficiente per $\mu$ tra tutti gli stimatori di $\mu$ che si ottengo come media pesata di $X_1,X_2,\dots ,X_n$. Ovvero, per ogni stimatore non distorto $\hat{\mu}=\frac{1}{n}\sum\limits_{i=1}^na_iX_i$ con $a_i$ costanti, si ha: $$VAR(\overline{X}) < VAR(\hat{\mu})$$
Grazie alle proprietà del valor medio e della varianza, si dimostra che l'errore quadratico medio è dato dalla somma tra la distorsione al quadrato e la varianza: $$\bbox[#ffffff,5px,border:2px solid #ff6600]{MSE(T_n)=D(T_n)^2+Var(T_n)}$$
Esiste anche un'altra proprietà degli stimatori che vale la pena esporre.
Consistenza
$T_n$ si dice stimatore consistente per un parametro $\theta$ se l'errore quadratico medio si avvicina a zero al tendere di n a infinito, ossia:
$$\lim\limits_{n\rightarrow\infty}MSE(T_n)=\lim\limits_{n\rightarrow\infty}E\left[(T_n-\theta)^2\right]=0$$
Per esempio, la statistica $\overline{X}$ è uno stimatore consistente per la media della popolazione $\mu$. Infatti, dal Teorema del Limite Centrale, segue che
$$VAR(\overline{X})=\frac{\sigma_X^2}{n}\rightarrow 0\quad\mbox{per }n\rightarrow\infty$$
Osserviamo che se $T_n$ è asintoticamente corretto e $VAR(T_n)\rightarrow\infty$ per $n\rightarrow\infty$ allora $T_n$ è consistente.
Quest'ultima proprietà è un modo comodo per verificare la consistenza di uno stimatore.
Poiché è quasi impossibile che una stima puntuale coincida con il valore del parametro da stimare, si usano più preferibilmente le stime per intervallo. Tali stime vengono comunemente chiamate intervalli di confidenza.
Per approfondimenti sugli intervalli di confidenza clicca qui, oppure.