NOTA! Questo sito utilizza i cookie e tecnologie simili.

Se non si modificano le impostazioni del browser, l'utente accetta. Per saperne di piu'

Approvo

Formulario di Statistica e Probabilità

Valor medio campionario

$\overline{x}=\frac{1}{n}\sum\limits_{i=1}^n x_i$

Varianza campionaria

$s^2=\frac{1}{n-1}\sum\limits_{i=1}^n \left(x_i-\overline{x}\right)^2=\frac{1}{n-1}\left[\sum\limits_{i=1}^n x_i^2-n\overline{x}^2\right]$

Scarto quadratico medio campionario (deviazione standard)

$s=\sqrt{\frac{1}{n-1}\sum\limits_{i=1}^n \left(x_i-\overline{x}\right)^2}$

Valor medio e varianza campionari per dati raggruppati in classi

Posto

$n=\mbox{nº dati},\quad k=\mbox{nº classi},\quad m_i=\mbox{valori centrali},\quad f_i=\mbox{frequenze assolute}$

si ha:

$\mbox{valor medio:}\quad\overline{x}=\frac{1}{n}\sum\limits_{i=1}^k m_if_i$ $\mbox{varianza campionaria:}\quad s^2=\frac{1}{n-1}\sum\limits_{i=1}^k \left(m_i-\overline{x}\right)^2f_i=\frac{1}{n-1}\left[\sum\limits_{i=1}^k f_im_i^2-n\overline{x}^2\right]$

Covarianza

$S_{xy}=\frac{1}{n-1}\sum\limits_{i=1}^n\left(x_i-\overline{x}\right)\left(y_i-\overline{y}\right)=\frac{1}{n-1}\left(\sum\limits_{i=1}^nx_iy_i-n\overline{x}\overline{y}\right)$

Coefficiente di correlazione lineare

$r=\frac{S_{xy}}{\sqrt{s_x^2\cdot s_y^2}}$

PROPRIETÀ:

  • $-1\le r\le 1$
  • $r=\pm 1\Leftrightarrow y=ax+b$

Coefficiente di variazione

$CV=\frac{\sigma}{|\mu|}$
Tipo
raggruppamento
Semplice Con ripetizione
Disposizioni $D_{n,k}=n(n-1)(n-2)\cdots(n-k+1)$ $D_{n,k}^r=n^k$
Combinazioni $C_{n,k}={n \choose k}=\frac{n!}{k!(n-k)!}$ $C_{n,k}^r={n+k-1 \choose k}=\frac{(n+k-1)!}{k!(n-1)!}$
Permutazioni $P_n=n!$ $P_{r_1,r_2,\dots,r_n}^r=\frac{r_1+r_2+\dots+r_n}{r_1!\ r_2!\dots r_n!}$

Regola additiva della probabilità

$\begin{array}{ll} \mbox{Per eventi compatibili: } & \quad P(A\cup B)=P(A)+P(B)-P(A\cap B)\\ \mbox{Per eventi incompatibili: } & \quad P(A\cup B)=P(A)+P(B)\end{array}$

Regola moltiplicazione per eventi indipendenti

$P(A\cap B)=P(A)\cdot P(B)$

Probabilità condizionata

$\begin{array}{l} \mbox{Per eventi dipendenti: }\Rightarrow\quad \left\{\begin{array}{ll} P(B|A)=\frac{P(A\cap B)}{P(A)} & P(A)\neq 0\\ P(A|B)=\frac{P(A\cap B)}{P(B)} & P(B)\neq 0\end{array}\right.\\ \mbox{Per eventi indipendenti: }\Rightarrow\quad \left\{\begin{array}{l} P(B|A)=P(B)\\ P(A|B)=P(A)\end{array}\right.\end{array}$

Probabilità totale

Siano $B_1,\ B_2,\dots, B_n$ delle ipotesi su una popolazione tali che $B_i\cap B_j=\emptyset\quad \forall i\neq j\quad$ e $\quad\bigcup\limits_{i=1}^n B_i=\Omega$ e sia $A$ un evento, allora si ha:

$\begin{array}{l} P(A)&=P(A|B_1)\cdot P(B_1)+P(A|B_2)\cdot P(B_2)+\dots+P(A|B_n)\cdot P(B_n)=\\ &=\sum\limits_{i=1}^n P(A|B_i)\cdot P(B_i)\end{array}$

Teorema di Bayes

$P(B_k|A)=\frac{P(A|B_k)\cdot P(B_k)}{P(A)}\quad\quad\forall k=1,\ 2,\dots, n$

Sia $X$ una variabile aleatoria e siano $E(X)$, $VAR(X)$ e $f(x)$ rispettivamente il suo valore atteso, la sua varianza e la sua funzione di densità. Si ha:

$\begin{array}{l} \mbox{Caso discreto:} \left\{\begin{array}{l} \mu=E(X)=\sum\limits_{i=1}^n x_i P(X=x_i)=\sum\limits_{i=1}^n x_i f(x_i)\\ \sigma^2=VAR(X)=E\left[(X-\mu)^2\right]=\sum\limits_{i=1}^n (x_i-\mu)^2 f(x_i)=\sum\limits_{i=1}^n x_i^2 f(x_i)-\mu^2\end{array}\right.\\ \mbox{Caso continuo:} \left\{\begin{array}{l} \mu=E(X)=\int\limits_{-\infty}^{+\infty} x f(x)\ dx\\ \begin{array}{l} \sigma^2 &=VAR(X)=E\left[(X-\mu)^2\right]=\int\limits_{-\infty}^{+\infty}(x-\mu)^2 f(x)\ dx=\\ &=\int\limits_{-\infty}^{+\infty}x^2 f(x)\ dx-\mu^2\end{array}\end{array}\right.\end{array}$

Proprietà valor medio e varianza ($a,\ b\in\mathbb R$)

  • $E(aX+b)=aE(X)+b$
  • $E(X^2)=VAR(X)+[E(X)]^2$
  • $VAR(aX+b)=a^2VAR(X)$
  • $VAR(aX+bY)=a^2VAR(X)+b^2VAR(Y)+2COV(X,Y)$

Disuguaglianza di Chebishev

Sia $X$ una variabile aleatoria casuale e siano $\mu=E(X)$ e $\sigma^2=VAR(X)$, allora:

$P(|X-\mu|\ge k\sigma)\le\frac{1}{k^2}\quad\forall k\ge 1$

o equivalentemente:

$P(|X-\mu|\le k\sigma)=P(\mu-k\sigma\le X\le\mu+k\sigma)\ge 1-\frac{1}{k^2}\quad\forall k\ge 1$

Tale disuguaglianza afferma che almeno $\left(1-\frac{1}{k^2}\right)\cdot 100\%$ dei dati sta nell'intervallo $[\mu-k\sigma,\mu+k\sigma]$. In particolare si ha che:

  1. per $k=2$ almeno il $75\%$ dei valori stanno nell'intervallo $[\mu-2\sigma,\mu+2\sigma]$
  2. per $k=3$ almeno il $89\%$ dei valori stanno nell'intervallo $[\mu-3\sigma,\mu+3\sigma]$
  3. per $k=4$ almeno il $94\%$ dei valori stanno nell'intervallo $[\mu-4\sigma,\mu+4\sigma]$
  4. per $k=5$ almeno il $96\%$ dei valori stanno nell'intervallo $[\mu-5\sigma,\mu+5\sigma]$

Legge empirica

Sotto l'ipotesi più restrittiva che $X$ abbiadistribuzione campanulare, si può dire che:

  1. per $k=1$ almeno il $68\%$ dei valori stanno nell'intervallo $[\mu-\sigma,\mu+\sigma]$
  2. per $k=2$ almeno il $95\%$ dei valori stanno nell'intervallo $[\mu-2\sigma,\mu+2\sigma]$
  3. per $k=3$ almeno il $99,7\%$ dei valori stanno nell'intervallo $[\mu-3\sigma,\mu+3\sigma]$

$F(x)=P(X\le x)=1-P(X > x)$

$P(a < X < b)=\begin{cases} F(b)-F(a) & \mbox{se } X \mbox{ è una variabile aleatoria discreta}\\ \int\limits_a^b f(x)\ dx & \mbox{se } X \mbox{ è una variabile aleatoria continua}\end{cases}$

Distribuzione binomiale o di Bernoulli ($X\sim B(n,p)$)

Dati

$n=\mbox{nº di prove indipendenti ed equiprobabili}$
$p=\mbox{probabilità del verificarsi di ciascuna prova}$

si ha:

  • Funzione di densità:$\quad f(x)=P(X=x)={n \choose x}p^x(1-p)^{n-x}\quad\quad x=0,\ 1,\dots, n$
  • Funzione di ripartizione:$\quad F(x)=P(X\le x)=\sum\limits_{k=0}^x{n \choose k}p^x(1-p)^{n-k}$
  • Valore atteso:$\quad\mu=E(X)=np$
  • Varianza:$\quad\sigma^2=VAR(X)=np(1-p)$

Se $n\ge 100$ e $p\le 0,05$ allora la distribuzione binomiale può approssimarsi con la distribuzione di Poisson:

$X\sim B(n,p)\approx P\left(\frac{\lambda}{np}\right)$

Distribuzione ipergeometrica ($X\sim H(M,k,n)$)

Dati

$M=\mbox{elementi popolazione}$
$k=\mbox{unità con un certa caratteristica}$
$n=\mbox{campione estratto senza reimmissione}$

la probabilità di ottenere $h$ unità con la data caratteristica sulle $n$ estratte da una popolazione di $M$ elementi è

$P(X=h)=\frac{{k \choose h}{M-k \choose n-h}}{{M \choose n}}$

Se $n\le \frac{M}{10}$ la distribuzione ipergeometrica può approssimarsi con la distribuzione binomiale:

$X\sim H(M,k,n)\approx B\left(n,\frac{k}{M}\right)$

Distribuzione geometrica ($X\sim G(p)$)

Dati

$n=\mbox{nº prove indipendenti ed equiprobabili}$
$p=\mbox{probabilità del verificarsi di ciascuna prova}$
$k=\mbox{numero successi dopo $n$ prove}$

si ha:

  • Funzione di densità:$\quad f(k)=P(X=k)=p(1-p)^{k-1}\quad\quad k=0,\ 1,\dots, n$
  • Valore atteso:$\quad\mu=E(X)=\frac{1}{p}$
  • Varianza:$\quad\sigma^2=VAR(X)=\frac{1-p}{p^2}$

$f(k)$ è la probabilità di ottenere il $k$-esimo successo dopo $n$ prove.

Distribuzione discreta di Poisson ($X\sim P(\lambda)$)

Dati

$N=\mbox{ampiezza dell'intervallo}$
$x=\mbox{nº di successi in } [0,N]$
$p=\mbox{probabilità di successo nell'unità}$
$\lambda=Np=\mbox{nº medio di successi in } [0,N]$

si ha:

  • Funzione di densità:$\quad f(x)=P(X=x)=\frac{e^{-\lambda}\lambda^x}{x!}\quad\quad x=0,\ 1,\ 2,\dots$
  • Funzione di ripartizione:$\quad F(x)=P(X\le x)=\sum\limits_{k=0}^x \frac{e^{-\lambda}\lambda^k}{k!}$
  • Valore atteso:$\quad\mu=E(X)=\lambda$
  • Varianza:$\quad\sigma^2=VAR(X)=\lambda$

$f(x)$ è la probabilità di ottenere $x$ successi in $[0,N]$

PROPRIETÀ

  • $X\sim P(\lambda_1),\ Y\sim P(\lambda_2)\quad\Rightarrow\quad Z=X+Y\sim P(\lambda_1+\lambda_2)\quad X,\ Y\mbox{ indipendenti}$.

Distribuzione continua uniforme ($X\sim U[a,b]$)

La distribuzione uniforme su un intervallo $[a,b]$ attribuisce la stessa probabilità $f(x)$ a tutti i punti dell'intervallo $[a,b]$.

  • Funzione di densità:$\quad f(x)=\begin{cases} \frac{1}{b-a} & a\le x\le b\\ 0 & \mbox{altrove}\end{cases}$
  • Funzione di ripartizione:$\quad F(x)=P(X\le x)=\begin{cases} 0 & x\le a\\ \frac{x-a}{b-a} & a < x < b\\ 1 & x\ge b\end{cases}$
  • Valore atteso:$\quad\mu=E(X)=\frac{a+b}{2}$
  • Varianza:$\quad\sigma^2=VAR(X)=\frac{(b-a)^2}{12}$

Distribuzione continua di Poisson ($X\sim P(\lambda)$)

Dati

$t=\mbox{ampiezza dell'intervallo}$
$x=\mbox{nº di successi in } [0,t]$
$\alpha=\mbox{nº medio di successi nell'unità}$
$\lambda=\alpha t=\mbox{nº medio di successi in } [0,t]$

si ha:

  • Funzione di densità:$\quad f(x)=P(X=x)=\frac{e^{-\lambda}\lambda^x}{x!}\quad\quad x=0,\ 1,\ 2,\dots$
  • Funzione di ripartizione:$\quad F(x)=P(X\le x)=\sum\limits_{k=0}^x \frac{e^{-\lambda}\lambda^k}{k!}$
  • Valore atteso:$\quad\mu=E(X)=\lambda$
  • Varianza:$\quad\sigma^2=VAR(X)=\lambda$

$f(x)$ è la probabilità di ottenere $x$ successi in $[0,t]$.

PROPRIETÀ

  • $X\sim P(\lambda_1),\ Y\sim P(\lambda_2)\quad\Rightarrow\quad Z=X+Y\sim P(\lambda_1+\lambda_2)\quad X,\ Y\mbox{ indipendenti}$
  • $\mbox{Se }\lambda > 1000 X\sim P(\lambda)\approx N(\lambda,\lambda)$
  • L'intervallo tra due eventi successivi di Poisson si distribuisce come una distribuzione esponenziale di parametro $\lambda=\alpha$

Distribuzione esponenziale ($X\sim EXP(\lambda)$)

  • Funzione di densità:$\quad f(x)=\begin{cases} \lambda e^{-\lambda x} & x > 0\\ 0 & x\le 0\end{cases}$
  • Funzione di ripartizione:$\quad F(x)=P(X\le x)=\begin{cases} 0 & x\le 0\\ 1- e^{-\lambda x} & x > 0\end{cases}$
  • Valore atteso:$\quad\mu=E(X)=\frac{1}{\lambda}$
  • Varianza:$\quad\sigma^2=VAR(X)=\frac{1}{\lambda^2}$

$F(x)$ è la probabilità che un certo dispositivo duri fino ad un tempo $x$ prima che si guasti.

Distribuzione normale o di Gauss ($X\sim N(\mu,\sigma^2)$)

  • Funzione di densità:$\quad f(x)=P(X=x)=\frac{1}{\sigma\sqrt{2\pi}}e^{-\frac{1}{2}\left(\frac{x-\mu}{\sigma}\right)^2}\quad\quad -\infty < x < +\infty$
  • Funzione di ripartizione:$\quad F(x)=P(X\le x)=\frac{1}{\sigma\sqrt{2\pi}}\int\limits_{-\infty}^x e^{-\frac{1}{2}\left(\frac{t-\mu}{\sigma}\right)^2}\ dt$
  • Standardizzazione:$\quad P(X=x)=P\left(Z=\frac{x-\mu}{\sigma}\right)$
  • Approssimazione distribuzione binomiale con distribuzione normale: $$Z=\frac{X-np}{\sqrt{np(1-p)}}\quad\quad np\ge 5\quad\quad n(1-p)\ge 5$$
  • Approssimazione distribuzione di Poisson con distribuzione normale: $$Z=\frac{X-\lambda}{\sqrt{\lambda}}\quad\quad \lambda\ge 10$$

PROPRIETÀ:

  • $P(-\infty < Z < +\infty)=1$
  • $P(-\infty < Z < 0)=P(0 < Z < +\infty)=\frac{1}{2}$
  • $P(Z\le -z)=F(-z)=1-F(z)=1-P(Z\le z)$
  • $P(z_1\le Z\le z_2)=F(z_2)-F(z_1)=P(Z\le z_2)-P(Z\le z_1)$
  • La distribuzione normale è simmetrica e unimodale. Ne segue che la media coincide con la mediana.
  • $\mbox{Se } X\sim N(\mu,\sigma^2)\quad\Rightarrow\quad \overline{X}_n\sim N\left(\mu,\frac{\sigma^2}{n}\right)$
  • $\mbox{Se } X_1\sim N(\mu_1,\sigma_1^2),\ X_2\sim N(\mu_2,\sigma_2^2)\quad\mbox{si ha:}$ $$Z=aX_1+bX_2\sim N\left(aX_1+bX_2,\ a^2VAR(X_1)+b^2VAR(X_2)+2abCOV(X_1,X_2)\right)$$

Distribuzione $t$ di Student

$T=\frac{\overline{X}-\mu}{\frac{S}{\sqrt{n}}}\quad\quad\mbox{gradi di libertà:}\quad \nu=n-1$

Distribuzione $\chi^2$

$\chi^2=\frac{(n-1)S^2}{\sigma^2}\quad\quad\mbox{gradi di libertà:}\quad \nu=n-1$

Distribuzione $F$ (Fisher)

$F=\frac{S_1^2/\sigma_1^2}{S_2^2/\sigma_2^2}\quad\quad\mbox{gradi di libertà:}\quad \nu_1=n_1-1,\quad\nu_2=n_2-1$

Intervallo di confidenza per la media, con grado di fiducia $(1-\alpha)100\%$ (varianza nota)

$\overline{x}-z_{\frac{\alpha}{2}}\frac{\sigma}{\sqrt{n}} < \mu < \overline{x}+z_{\frac{\alpha}{2}}\frac{\sigma}{\sqrt{n}}$

Intervallo di confidenza per la media, con grado di fiducia $(1-\alpha)100\%$ (varianza incognita)

$\overline{x}-t_{\frac{\alpha}{2}}\frac{s}{\sqrt{n}} < \mu < \overline{x}+t_{\frac{\alpha}{2}}\frac{s}{\sqrt{n}}$

Intervallo di confidenza per la proporzione, con grado di fiducia $(1-\alpha)100\%$

$\hat{p}-z_{\frac{\alpha}{2}}\sqrt{\frac{\hat{p}(1-\hat{p})}{n}} < \mbox{ p } < \hat{p}+z_{\frac{\alpha}{2}}\sqrt{\frac{\hat{p}(1-\hat{p})}{n}}$

Intervallo di confidenza per la differenza tra due medie, con grado di fiducia $(1-\alpha)100\%$ (varianze note)

$\overline{x}_1-\overline{x}_2-z_{\frac{\alpha}{2}}\sqrt{\frac{\sigma_1^2}{n_1}+\frac{\sigma_2^2}{n_2}} < \mu_1-\mu_2 < \overline{x}_1-\overline{x}_2+z_{\frac{\alpha}{2}}\sqrt{\frac{\sigma_1^2}{n_1}+\frac{\sigma_2^2}{n_2}}$

Intervallo di confidenza per la differenza tra due medie, con grado di fiducia $(1-\alpha)100\%$ (varianze incognite)

$\overline{x}_1-\overline{x}_2-t_{\frac{\alpha}{2}}\sqrt{s^2\left(\frac{\sigma_1^2}{n_1}+\frac{\sigma_2^2}{n_2}\right)} < \mu_1-\mu_2 < \overline{x}_1-\overline{x}_2+t_{\frac{\alpha}{2}}\sqrt{s^2\left(\frac{\sigma_1^2}{n_1}+\frac{\sigma_2^2}{n_2}\right)}$

con gradi di liberta: $\nu=n_1+n_2-2$ e stima congiunta della varianza: $s^2=\frac{(n_1-1)^2s_1^2+(n_2-1)^2s_2^2}{n_1+n_2-2}$

Intervallo di confidenza per la differenza tra due proporzioni, con grado di fiducia $(1-\alpha)100\%$

$(\hat{p_1}-\hat{p_2})-z_{\frac{\alpha}{2}}\sqrt{\frac{\hat{p_1}(1-\hat{p_1})}{n_1}+\frac{\hat{p_2}(1-\hat{p_2})}{n_2}} < \ p_1-p_2\ < (\hat{p_1}-\hat{p_2})+z_{\frac{\alpha}{2}}\sqrt{\frac{\hat{p_1}(1-\hat{p_1})}{n_1}+\frac{\hat{p_2}(1-\hat{p_2})}{n_2}}$

Test di ipotesi sulla media (varianza nota)

Statistica test: $Z=\frac{\overline{X}-\mu_0}{\frac{\sigma}{\sqrt{n}}}$

Test Ipot. nulla $H_0$ Ipot. altern. $H_1$ Liv. signif. $\alpha$ Valori critici Reg. rifiuto
una coda $\mu\le\mu_0$ $\mu > \mu_0$ $0,01$ $2,326$ $Z > 2,326$
$0,05$ $1,645$ $Z > 1,645$
una coda $\mu\ge\mu_0$ $\mu < \mu_0$ $0,01$ $-2,326$ $Z < -2,326$
$0,05$ $-1,645$ $Z < -1,645$
due code $\mu = \mu_0$ $\mu \neq \mu_0$ $0,01$ $-2,576$ e
$2,576$
$Z < -2,576$
$Z > 2,576$
$0,05$ $-1,96$ e
$1,96$
$Z < -1,96$
$Z > 1,96$

Test di ipotesi sulla media (varianza incognita)

Statistica test: $T=\frac{\overline{X}-\mu_0}{\frac{S}{\sqrt{n}}}\quad\quad\quad\mbox{gradi di libertà: }\nu=n-1$

Test Ipot. nulla $H_0$ Ipot. altern. $H_1$ Liv. signif. $\alpha$ Valori critici Reg. rifiuto
una coda $\mu\le\mu_0$ $\mu > \mu_0$ $0,01$ $t_{\alpha}=t_{0,01}$ $T > t_{0,01}$
$0,05$ $t_{\alpha}=t_{0,05}$ $T > t_{0,05}$
una coda $\mu\ge\mu_0$ $\mu < \mu_0$ $0,01$ $t_{\alpha}=-t_{0,01}$ $T < -t_{0,01}$
$0,05$ $t_{\alpha}=-t_{0,05}$ $T < -t_{0,05}$
due code $\mu = \mu_0$ $\mu \neq \mu_0$ $0,01$ $t_{\frac{\alpha}{2}}=t_{0,005}$
$t_{\frac{\alpha}{2}}=-t_{0,005}$
$T > t_{0,005}$
$T < -t_{0,005}$
$0,05$ $t_{\frac{\alpha}{2}}=t_{0,025}$
$t_{\frac{\alpha}{2}}=-t_{0,025}$
$T > t_{0,025}$
$T < -t_{0,025}$

Test di ipotesi sulla proporzione

Statistica test: $Z=\frac{\overline{X}-np_0}{\sqrt{np_0(1-p_0)}}$

Test Ipot. nulla $H_0$ Ipot. altern. $H_1$ Liv. signif. $\alpha$ Valori critici Reg. rifiuto
una coda $p\le p_0$ $p > p_0$ $0,01$ $2,326$ $Z > 2,326$
$0,05$ $1,645$ $Z > 1,645$
una coda $p\ge p_0$ $p < p_0$ $0,01$ $-2,326$ $Z < -2,326$
$0,05$ $-1,645$ $Z < -1,645$
due code $p = p_0$ $p \neq p_0$ $0,01$ $-2,576$ e
$2,576$
$Z < -2,576$
$Z > 2,576$
$0,05$ $-1,96$ e
$1,96$
$Z < -1,96$
$Z > 1,96$

Test di ipotesi sulla differenza tra due medie (varianza nota)

Statistica test: $Z=\frac{\left(\overline{X}_1-\overline{X}_2\right)-d}{\sqrt{\frac{\sigma_1^2}{n_1}+\frac{\sigma_2^2}{n_2}}}$

Test Ipot. nulla $H_0$ Ipot. altern. $H_1$ Liv. signif. $\alpha$ Valori critici Reg. rifiuto
una coda $\mu_1-\mu_2\le d$ $\mu_1-\mu_2 > d$ $0,01$ $2,326$ $Z > 2,326$
$0,05$ $1,645$ $Z > 1,645$
una coda $\mu_1-\mu_2\ge d$ $\mu_1-\mu_2 < d$ $0,01$ $-2,326$ $Z < -2,326$
$0,05$ $-1,645$ $Z < -1,645$
due code $\mu_1-\mu_2 = d$ $\mu_1-\mu_2 \neq d$ $0,01$ $-2,576$ e
$2,576$
$Z < -2,576$
$Z > 2,576$
$0,05$ $-1,96$ e
$1,96$
$Z < -1,96$
$Z > 1,96$

Test di ipotesi sulla differenza tra due medie (varianze incognite)

Statistica test: $T=\frac{\left(\overline{X}_1-\overline{X}_2\right)-d}{\sqrt{S^2\left(\frac{1}{n_1}+\frac{1}{n_2}\right)}}$

Test Ipot. nulla $H_0$ Ipot. altern. $H_1$ Liv. signif. $\alpha$ Valori critici Reg. rifiuto
una coda $\mu_1-\mu_2\le d$ $\mu_1-\mu_2 > d$ $0,01$ $t_{\alpha}=t_{0,01}$ $T > t_{0,01}$
$0,05$ $t_{\alpha}=t_{0,05}$ $T > t_{0,05}$
una coda $\mu_1-\mu_2\ge d$ $\mu_1-\mu_2 < d$ $0,01$ $t_{\alpha}=-t_{0,01}$ $T < -t_{0,01}$
$0,05$ $t_{\alpha}=-t_{0,05}$ $T < -t_{0,05}$
due code $\mu_1-\mu_2 = d$ $\mu_1-\mu_2 \neq d$ $0,01$ $t_{\frac{\alpha}{2}}=t_{0,005}$
$t_{\frac{\alpha}{2}}=-t_{0,005}$
$T > t_{0,005}$
$T < -t_{0,005}$
$0,05$ $t_{\frac{\alpha}{2}}=t_{0,025}$
$t_{\frac{\alpha}{2}}=-t_{0,025}$
$T > t_{0,025}$
$T < -t_{0,025}$

Dove $S$ è la stima congiunta della varianza.

Test di ipotesi sulla differenza tra due proporzioni

Statistica test: $Z=\frac{\hat{P_1}-\hat{P_2}}{p(1-p)\left(\sqrt{\frac{1}{n_1}+\frac{1}{n_2}}\right)}$

Test Ipot. nulla $H_0$ Ipot. altern. $H_1$ Liv. signif. $\alpha$ Valori critici Reg. rifiuto
una coda $p_1\le p_2$ $p_1 > p_2$ $0,01$ $2,326$ $Z > 2,326$
$0,05$ $1,645$ $Z > 1,645$
una coda $p_1\ge p_2$ $p_1 < p_2$ $0,01$ $-2,326$ $Z < -2,326$
$0,05$ $-1,645$ $Z < -1,645$
due code $p_1 = p_2$ $p_1 \neq p_2$ $0,01$ $-2,576$ e
$2,576$
$Z < -2,576$
$Z > 2,576$
$0,05$ $-1,96$ e
$1,96$
$Z < -1,96$
$Z > 1,96$

Test di ipotesi sul coefficiente di correlazione

Statistica test: $T=\frac{r\sqrt{n-2}}{\sqrt{1-r^2}}\quad\quad\quad\mbox{gradi di libertà: }\nu=n-2$

Test Ipot. nulla $H_0$ Ipot. altern. $H_1$ Liv. signif. $\alpha$ Valori critici Reg. rifiuto
due code $\rho = 0$ $\rho \neq 0$ $0,01$ $t_{\frac{\alpha}{2}}=t_{0,005}$
$t_{\frac{\alpha}{2}}=-t_{0,005}$
$T > t_{0,005}$
$T < -t_{0,005}$
$0,05$ $t_{\frac{\alpha}{2}}=t_{0,025}$
$t_{\frac{\alpha}{2}}=-t_{0,025}$
$T > t_{0,025}$
$T < -t_{0,025}$

Retta di regressione

$y=b_0x+b_1\quad\quad\quad\quad E=\sum\limits_{i=1}^n(b_0x_i+b_1-y_i)^2$

Per trovare i coefficienti $b_0$ e $b_1$ bisogna impostare il seguente sistema:

$\left\{\begin{array}{l} b_0\sum\limits_{i=1}^n x_i^2+b_1\sum\limits_{i=1}^n x_i=\sum\limits_{i=1}^n x_iy_i\\ b_0\sum\limits_{i=1}^n x_i+nb_1=\sum\limits_{i=1}^n y_i\end{array}\right.\quad\quad\Rightarrow\quad\quad \left\{\begin{array}{l} b_0=\frac{S_{xy}}{s_x^2}\\ b_1=\overline{y}-b_0\overline{x}\end{array}\right.$

Test di ipotesi sul coefficiente angolare della retta di regressione ($y=\beta_0+\beta_1x$)

Statistica test: $T=\frac{b_1}{s_{b_1}}\quad\quad\quad\mbox{gradi di libertà: }\nu=n-2$

dove $s_{b_1}$ è la varianza standard di $b_1$.

Test Ipot. nulla $H_0$ Ipot. altern. $H_1$ Liv. signif. $\alpha$ Valori critici Reg. rifiuto
due code $\beta_1 = 0$ $\beta_1 \neq 0$ $0,01$ $t_{\frac{\alpha}{2}}=t_{0,005}$
$t_{\frac{\alpha}{2}}=-t_{0,005}$
$T > t_{0,005}$
$T < -t_{0,005}$
$0,05$ $t_{\frac{\alpha}{2}}=t_{0,025}$
$t_{\frac{\alpha}{2}}=-t_{0,025}$
$T > t_{0,025}$
$T < -t_{0,025}$

Test $\chi^2$ di adattamento

  • Statistica test:$\quad\chi^2=\frac{\sum\limits_{i=1}^k(O_i-E_i)^2}{E_i}$
  • dove

    1. $O_i=$ frequenze osservate per ogni categoria
    2. $E_i=$ frequenze attese per ogni categoria
    3. $k=$ nº di categorie
  • Ipotesi nulla:$\quad H_0\mbox{: i dati si adattano alla distribuzione teorica}$
  • Ipotesi alternativa:$\quad H_1\mbox{: i dati non si adattano alla distribuzione teorica}$
  • Regione di rifiuto:$\quad \chi^2 > \chi_{\alpha}^2\quad\quad\quad\mbox{gradi di libertà:}\quad \nu=k-1$
  • Test $\chi^2$ di indipendenza

    • Statistica test:$\quad\chi^2=\sum\limits_{i=1}^r \sum\limits_{i=1}^c\frac{(O_{ij}-E_{ij})^2}{E_{ij}}$
    • dove

      1. $O_{ij}=$ frequenza osservata nella tabella di contingenza
      2. $E_{ij}=\frac{R_iC_j}{n}$ frequenza attesa
      3. $r=$ nº di righe della tabella di contingenza
      4. $c=$ nº di colonne della tabella di contingenza
    • Ipotesi nulla:$\quad H_0\mbox{: indipendenza}$
    • Ipotesi alternativa:$\quad H_1\mbox{: dipendenza}$
    • Regione di rifiuto:$\quad \chi^2 > \chi_{\alpha}^2\quad\quad\quad\mbox{gradi di libertà:}\quad \nu=(r-1)(c-1)$

Test di ipotesi sui coefficienti della retta di regressione lineare multipla ($y=\beta_0+\beta_1x_1+\beta_2x_2+\dots +\beta_nx_n$)

Si tratta di un test sulla significatività del modello Per verificare se scartarlo completamente o meno.

Statistica test: $F=\frac{\frac{SSR}{\nu_1}}{\frac{SSE}{\nu_2}}=\frac{MSR}{MSE}\quad\quad\quad\mbox{gradi di libertà: }\nu_1=k\quad \nu_2=n-k-1\quad\quad(k=\mbox{nº regressori } x_i)$

$SSR=DEV_{reg}=\sum\limits_{i=1}^n\left[f(x_i)-\overline{Y}\right]^2=VAR(Y)(n-1)$

$SSE=DEV_{res}=\sum\limits_{i=1}^n\left[Y_i-f(x_i)\right]^2=e_i^2$

Test Ipot. nulla $H_0$ Ipot. altern. $H_1$ Liv. signif. $\alpha$ Valori critici Reg. rifiuto
due code $\beta_i=0$
$i=1,\dots ,n$
$\beta_i \neq 0$
$\mbox{per qualche } i$
$0,01$ $F_{\alpha}=F_{0,01}$ $F > F_{0,01}$
$0,05$ $F_{\alpha}=F_{0,05}$ $F > F_{0,05}$
Letto 6570 volte

Effettua il LOGIN al sito per aggiungere commenti oppure REGISTRATI se non hai ancora un account.