Webtudordimatematica

Test F per il confronto tra due o più medie

Supponiamo di avere una distribuzione di dati come visto in questa lezione. Vogliamo verificare tramite un test di ipotesi se le medie dei gruppi $A_1,\dots ,A_k$ possono ritenersi uguali oppure no.

Potremmo condurre ripetutamente un test di ipotesi sul confronto tra due medie ma l'errore che si commetterebbe sarebbe troppo alto.

Per ovviare a ciò si è introdotta l'analisi della varianza o Anova (Analysis of Variance) che permette appunto di confrontare più di due gruppi di dati con un minimo errore.

Indicando con $\mu_1, \mu_2,\dots , \mu_k$ le medie delle popolazioni a cui appartengono rispettivamente i k gruppi, il sistema di ipotesi è il seguente: $$\begin{cases} H_0: \mu_1=\mu_2=\dots =\mu_k\\ H_1: \mbox{almeno uno dei gruppi ha media $\mu_i$ diversa dalle altre}\end{cases}$$

Al fine di verificare tali ipotesi, dobbiamo calcolare la devianza totale, la devianza tra i gruppi, la devianza entro i gruppi (clicca qui per approfondire) e i gradi di libertà di ognuna.

Rivediamo assieme le formule per il calcolo delle 3 devianze e i corrispondenti gradi di libertà: $$\begin{eqnarray} DEV_{tot}&=&\sum\limits_{i=1}^k\sum\limits_{j=1}^{n_i}x_{ij}^2-n\cdot M(X)^2\quad (\mbox{g.d.l.}=n-1)\\ DEV_{tra}&=&\sum\limits_{i=1}^kn_i[M(X|A_i)-M(X)]^2\quad (\mbox{g.d.l.}=k-1)\\ DEV_{entro}&=&\sum\limits_{i=1}^k\sum\limits_{j=1}^{n_i}(x_{ij}-M(X|A_i))^2\quad (\mbox{g.d.l.}=n-k))\end{eqnarray}$$ dove con $X$ si è indicata la variabile che assume tutti i valori estratti dalla popolazione e con $M(X)$ la sua media, con $M(X|A_i)$ le medie parziali di ogni gruppo e con $n$ il numero totale di osservazioni del campione.

Come spiegato qui, dalle devianze possiamo ricavarci le varianze dividendo per i rispettivi gradi di libertà. In particolare abbiamo: $$\begin{eqnarray} VAR_{tra} &=& \frac{DEV_{tra}}{k-1}\\ VAR_{entro} &=& \frac{DEV_{entro}}{n-k}\end{eqnarray}$$

La statistica test si calcola dunque facendo il rapporto tra le due varianze appena trovate: $$\bbox[#ffffff,5px,border:2px solid #ff6600]{F_{test}=\frac{VAR_{tra}}{VAR_{entro}}}$$

In generale si ha $VAR_{tra}\geq VAR_{entro}$. Se le due varianze tendono a coincidere il rapporto $F$ tenderà a 1 e ciò significa che l'ipotesi nulla è vera; invece maggiore è la $VAR_{tra}$ rispeto alla $VAR_{entro}$ e maggiore e la possibilità che tra i gruppi ci sia almeno una media che si differenzia dalle altre e che quindi porta alla falsità dell'ipotesi nulla.

Fissato un livello di significatività $\alpha$ e letto dalle tavole il valore critico della distribuzione F con $\nu_1=k-1$ e $\nu_2=n-k$ ($F_{\alpha}(k-1,n-k)$) gradi di libertà si può determinare la regione di rifiuto e quindi anche quella di accettazione dell'ipotesi nulla.

In breve diciamo che si rifiuta l'ipotesi nulla se $F_{test}>F_{\alpha}(k-1,n-k)$

Il quaderno degli appunti
Statistica e Probabilità

Coefficiente di correlazione di Pearson

Dati due variabili quantitative X e Y, si dice coefficiente di correlazione lineare o covarianza normalizzata di X e Y il rapporto tra la covarianza e
Trigonometria

Teorema del coseno o di Carnot

Il teorema del coseno (o di Carnot) è una conseguenza del teorema delle proiezioni (visto qui) e afferma che in un triangolo qualsiasi, il quadrato d
Trigonometria

Teorema delle proiezioni

Il teorema delle proiezioni dice che in un triangolo qualsiasi la misura di un lato è uguale alla somma dei prodotti di quelle degli altri due lati p