Nella teoria delle probabilità la distribuzione di Student, o t di Student, è una distribuzione di probabilità continua che governa il rapporto tra due variabili aleatorie, la prima con distribuzione normale standard e la seconda, al quadrato, segue una distribuzione chi quadrato.
Questa distribuzione interviene nella stima della media di una popolazione che segue la distribuzione normale, e viene utilizzata negli omonimi test t di Student per la significatività e per ogni intervallo di confidenza della differenza tra due medie.
Storia
La distribuzione venne descritta nel 1908 da William Sealy Gosset, che pubblicò il suo risultato sotto lo pseudonimo "Student" perché la fabbrica di birra Guinness presso la quale era impiegato vietava ai propri dipendenti di pubblicare articoli affinché questi non divulgassero segreti di produzione. Il nome distribuzione di Student venne successivamente introdotto da Ronald Fisher.[2][3]
Definizione
La distribuzione di Student con parametro
(gradi di libertà) governa la variabile aleatoria
![{\displaystyle T_{n}={\frac {Z}{\sqrt {K/n}}},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/cbae72ce3e66270ab2a0e14cb91db3e94d9333c8)
dove
e
sono due variabili aleatorie indipendenti che seguono rispettivamente la distribuzione normale standard
e la distribuzione chi quadro
con
gradi di libertà.
Stimatori
La media
e la varianza
di una popolazione
possono essere stimate tramite un suo campione di
elementi,
con gli stimatori
![{\displaystyle {\bar {X}}={\frac {1}{N}}\sum _{i=1}^{N}X_{i},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2d57219d76573a8d067b91e42b77cfc0c259e2a9)
![{\displaystyle S^{2}={\frac {1}{N-1}}\sum _{i=1}^{N}(X_{i}-{\bar {X}})^{2}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/fc73b5d9a21a52314d0d53d5ebae3ff485f3c5b0)
Supponiamo che le variabili aleatorie
che compongono il campione siano indipendenti e distribuite normalmente, allora
è una variabile normale
con valore atteso
e varianza
. Pertanto la variabile
così definita
![{\displaystyle Z={\frac {{\bar {X}}-\mu }{\sqrt {\sigma ^{2}/N}}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e2e7fb34437d2b8647c67800b991c2cb3fdc5334)
seguirà una distribuzione normale standard,
. Il problema è che spesso non si conosce
, pertanto dovremo avere a che fare con uno stimatore della varianza come
.
Dimostreremo che la seguente variabile aleatoria
![{\displaystyle k={\frac {(N-1)S^{2}}{\sigma ^{2}}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/81966ea6c1798718b9eed65beb0493f00e82122d)
segue una distribuzione chi-quadro con
gradi di libertà,
.
Le due variabili aleatorie
e
sono indipendenti, per il teorema di Cochran.
Pertanto si definisce la variabile aleatoria
![{\displaystyle t_{N-1}={\frac {{\bar {X}}-\mu }{\sqrt {S^{2}/N}}}={\frac {{\bar {X}}-\mu }{\sqrt {{\frac {\sigma ^{2}}{N}}{\frac {(N-1)S^{2}}{(N-1)\sigma ^{2}}}}}}={\frac {Z}{\sqrt {k/(N-1)}}}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8af4f4f07937fccd9ecbc60f6f7b96fd2ecc2cba)
Tale variabile aleatoria segue una distribuzione di probabilità detta "t di Student".
Ricavare la distribuzione di t
Cominciamo con il dimostrare che
è una variabile aleatoria di tipo chi-quadro. Ricordiamo che una distribuzione
è una particolare variabile di tipo gamma definita come segue
![{\displaystyle \chi ^{2}(n)=\mathrm {\Gamma } \left({\frac {1}{2}},{\frac {n}{2}}\right)={\frac {e^{-{\frac {x}{2}}}x^{{\frac {n}{2}}-1}}{2^{\frac {n}{2}}\Gamma ({\frac {n}{2}})}},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5f3cbaf91d71cb76136f37a99a170b6394b77055)
dove
è la funzione Gamma di Eulero definita come
con
per ogni ![{\displaystyle n\in \mathbb {N} _{0}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1af88b7d9a63b13a2fcbf0cf34f91b177ac9fcee)
Una variabile chi-quadro con
gradi di libertà si ottiene sommando
variabili normali standard
elevate al quadrato. Detto ciò partiamo dalla definizione della varianza campionaria e aggiungiamo e sottraiamo nell'argomento della sommatoria
, il valore aspettato della variabile aleatoria
che coincide con quello della variabile aleatoria
.
![{\displaystyle S^{2}={\frac {1}{N-1}}\sum _{i}(X_{i}-{\bar {X}})^{2}={\frac {1}{N-1}}\sum _{i}(X_{i}+\mu -\mu -{\bar {X}})^{2}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/68d1f0312b5d32bccad63be4f586be3474cec42e)
Definiamo i parametri
e
come
e riscriviamo la formula precedente
![{\displaystyle (N-1)S^{2}=\sum _{i}(a_{i}-b)^{2}=\sum _{i}a_{i}^{2}+\sum _{i}b^{2}-2\sum _{i}a_{i}b=\sum _{i}(X_{i}-\mu )^{2}+\sum _{i}({\bar {X}}-\mu )^{2}-2\sum _{i}({\bar {X}}-\mu )(X_{i}-\mu ).}](https://wikimedia.org/api/rest_v1/media/math/render/svg/87f265a6583d1eeeda7d488eb383aea6495647e1)
Ora possiamo esplicitare fuori dalle sommatorie tutti i termini che non dipendono da
, ossia
e
![{\displaystyle (N-1)S^{2}=\sum _{i}(X_{i}-\mu )^{2}+N({\bar {X}}-\mu )^{2}-2({\bar {X}}-\mu )\sum _{i}(X_{i}-\mu )=\sum _{i}(X_{i}-\mu )^{2}+N({\bar {X}}-\mu )^{2}-2({\bar {X}}-\mu )\left[-N\mu +\sum _{i}X_{i}\right]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/cd62d94edd82ec0b11ead231f41fc6938fde2251)
![{\displaystyle (N-1)S^{2}=\sum _{i}(X_{i}-\mu )^{2}+N({\bar {X}}-\mu )^{2}-2N({\bar {X}}-\mu )^{2}=\sum _{i}(X_{i}-\mu )^{2}-N({\bar {X}}-\mu )^{2},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ed1a7e4f098ce6e8ec84369a4f1a44bb7ab23b00)
sapendo che la somma su tutti gli
è uguale a
. Dividendo ora a destra e a sinistra per
otteniamo a destra delle variabili normali
![{\displaystyle {\frac {(N-1)S^{2}}{\sigma ^{2}}}=\sum _{i=1}^{N}\left({\frac {X_{i}-\mu }{\sigma }}\right)^{2}-N\left({\frac {{\bar {X}}-\mu }{\sigma }}\right)^{2}=\sum _{i=1}^{N}\left({\frac {X_{i}-\mu }{\sigma }}\right)^{2}-\left({\frac {{\bar {X}}-\mu }{\sigma /{\sqrt {N}}}}\right)^{2}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5b48c51305b4a11c7414102d07a242950c83ddc7)
Abbiamo quindi ottenuto a sinistra una variabile che precedentemente avevamo indicato con
, mentre a destra abbiamo somme di variabili normali standard al quadrato, coincidenti con una variabile chi quadro con
gradi di libertà e un'altra variabile normale anch'essa standard elevata al quadrato, ossia una variabile chi-quadro ad un solo grado di libertà. Sapendo che somme di variabili di tipo chi-quadro con
e
gradi di libertà corrispondono ancora ad una variabile chi-quadro con
gradi di libertà otteniamo che la funzione di densità di probabilità di
è di tipo chi-quadro con
gradi di libertà.
Pertanto ora iniziamo a dire che
![{\displaystyle t_{n}|k=Z{\sqrt {\frac {n}{k}}},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/04d2dcf048cbbbaa956792965eb26a9ab30d476d)
dove
è il numero di gradi di libertà, e che
![{\displaystyle f(t_{n}|k)={\mathcal {N}}\left(0,{\frac {n}{k}}\right)={\sqrt {\frac {k}{2\pi n}}}e^{-{\frac {kt^{2}}{2n}}}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/45e45a1013d88a9466994912836332580a9a1290)
Conosciuta la variabile aleatoria
, essa si riduce difatti ad un parametro moltiplicativo per la normale. Dalla definizione di probabilità condizionata si ha
![{\displaystyle f(t_{n},k)=f(t_{n}|k)f(k),}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ad553d24f29e1fcfe40986887df3d0be44d9aec8)
dove
![{\displaystyle f(k)={\frac {e^{-{\frac {k}{2}}}k^{{\frac {n}{2}}-1}}{2^{\frac {n}{2}}\Gamma \left({\frac {n}{2}}\right)}},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9eeec7bc859e863a3863247c0708c149c37b7c82)
è una distribuzione chi-quadro con
gradi di libertà. Quindi
![{\displaystyle f(t_{n},k)={\sqrt {\frac {k}{2\pi n}}}e^{-{\frac {kt^{2}}{2n}}}{\frac {e^{-{\frac {k}{2}}}k^{{\frac {n}{2}}-1}}{2^{\frac {n}{2}}\Gamma \left({\frac {n}{2}}\right)}}={\frac {k^{\frac {n-1}{2}}e^{-{\frac {k}{2}}\left(1+{\frac {t^{2}}{n}}\right)}}{2^{\frac {n+1}{2}}{\sqrt {\pi n}}\Gamma \left({\frac {n}{2}}\right)}}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6d3c4851b2f11fe9b095e4655ae2d8d7ad76a16b)
Notiamo che la funzione di distribuzione cercata non è altro che una funzione marginale di
, pertanto si ha
![{\displaystyle f(t_{n})=\int _{0}^{\infty }\!\!\!f(t_{n},k)dk,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f60fc1979fddbed9d00bfccfab4d1993e3de80f1)
![{\displaystyle f(t_{n})={\frac {1}{2^{\frac {n+1}{2}}{\sqrt {\pi n}}\Gamma \left({\frac {n}{2}}\right)}}\int _{0}^{+\infty }k^{\frac {n-1}{2}}e^{-{\frac {k}{2}}\left(1+{\frac {t^{2}}{n}}\right)}dk.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ae7c390209cc1667355dad12407fdf4b5d2ed762)
Ponendo una sostituzione con l'argomento dell'esponenziale, mantenendolo però negativo
![{\displaystyle y={\frac {k}{2}}\left(1+{\frac {t^{2}}{n}}\right),dk=2\left(1+{\frac {t^{2}}{n}}\right)^{-1}dy,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/cdf751b458e5216374ff34577707bbd37fb26266)
otteniamo
![{\displaystyle f(t_{n})={\frac {\left(1+{\frac {t^{2}}{n}}\right)^{-1}}{2^{\frac {n-1}{2}}{\sqrt {\pi n}}\Gamma ({\frac {n}{2}})}}\int _{0}^{+\infty }\left({\frac {2y}{1+{\frac {t^{2}}{n}}}}\right)^{\frac {n-1}{2}}e^{-y}dy={\frac {\left(1+{\frac {t^{2}}{n}}\right)^{-{\frac {n+1}{2}}}}{{\sqrt {\pi n}}\Gamma \left({\frac {n}{2}}\right)}}\int _{0}^{+\infty }y^{\frac {n-1}{2}}e^{-y}dy,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/85f18255c6689b50ce25f2e00ae7f08f430ac06e)
l'integrale definito ha come risultato la funzione Gamma di Eulero stessa
![{\displaystyle \int _{0}^{+\infty }y^{\frac {n-1}{2}}e^{-y}dy=\Gamma \left({\frac {n-1}{2}}+1\right)=\Gamma \left({\frac {n+1}{2}}\right).}](https://wikimedia.org/api/rest_v1/media/math/render/svg/76c2a80abd4aa9512e69ff10635bf82934e367fb)
Pertanto otteniamo al fine il nostro risultato
![{\displaystyle f(t_{n})={\frac {\Gamma \left({\frac {n+1}{2}}\right)}{{\sqrt {\pi n}}\Gamma \left({\frac {n}{2}}\right)}}\cdot \left(1+{\frac {t^{2}}{n}}\right)^{-{\frac {n+1}{2}}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/86297b8ea91193a4b627296facc4a60f97c3146b)
Notiamo che il limite di questa successione di funzioni per
è
![{\displaystyle \lim _{n\to \infty }f(t_{n})={\frac {1}{\sqrt {\pi }}}\lim _{n\to \infty }{\frac {\Gamma \left({\frac {n+1}{2}}\right)}{{\sqrt {n}}\Gamma \left({\frac {n}{2}}\right)}}\lim _{n\to \infty }\left(1+{\frac {t^{2}}{n}}\right)^{-{\frac {n+1}{2}}}={\frac {1}{\sqrt {2\pi }}}e^{-{\frac {t^{2}}{2}}}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a408d4c19a9a9f241f01324a832cf8efecaaf131)
Sapendo che il primo limite ha come risultato
e il secondo tende a
.
In pratica, prendendo una popolazione di numerosità
molto grande, la variabile aleatoria t tende ad essere una normale standard.
Caratteristiche
La distribuzione di Student con
gradi di libertà è simmetrica, perché lo è la distribuzione normale standard mentre la distribuzione chi quadrato che funge da "parametro casuale di scala" non produce effetti di distorsione di tale simmetria.
La sua funzione di densità di probabilità è
![{\displaystyle f(t)={\frac {\Gamma \left({\frac {n+1}{2}}\right)}{{\sqrt {n\pi }}\Gamma \left({\frac {n}{2}}\right)}}\left(1+{\frac {t^{2}}{n}}\right)^{-(n+1)/2}={\frac {1}{{\sqrt {n}}\,\mathrm {B} \left({\frac {1}{2}},{\frac {n}{2}}\right)}}\left(1+{\frac {t^{2}}{n}}\right)^{-(n+1)/2},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/04a644448b3498038bef45ff7e574de74d7536c0)
dove
la funzione beta.
La sua funzione di ripartizione è
![{\displaystyle F(t)=I_{x}\left({\frac {n}{2}},{\frac {n}{2}}\right),}](https://wikimedia.org/api/rest_v1/media/math/render/svg/adaf436b8970f869c39ed61bfb44e9ecd7ccf68c)
dove
è la funzione beta incompleta regolarizzata con
![{\displaystyle x={\frac {t+{\sqrt {t^{2}+n}}}{2{\sqrt {t^{2}+n}}}}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8fcd1ac29c549c21c4285a676130398080e011cc)
Per
i momenti (semplici o centrali, in quanto coincidono per una PDF simmetrica) di ordine
della distribuzione sono
![{\displaystyle \mu _{k}={\begin{cases}0,&{\text{se }}k{\text{ è dispari,}}\\\displaystyle {\frac {\Gamma ({\frac {k+1}{2}})\Gamma ({\frac {n-k}{2}})n^{k/2}}{{\sqrt {\pi }}\Gamma ({\frac {n}{2}})}},&{\text{se }}k{\text{ è pari.}}\end{cases}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5078809ed2b25dd8c18f847e4bcdab8f2d1c883b)
In particolare, oltre alla speranza matematica
e all'indice di asimmetria
(per
) predetti dalla simmetria della distribuzione, si trovano:
- la varianza
per ![{\displaystyle n>2;}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e87403393bd3a77dcf5c83e9b8a49adb91817703)
- l'indice di curtosi
per ![{\displaystyle n>4.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7cc02abfbe61f8193e36fb9c0b17edf6365b743f)
Consideriamo infine un ultimo parametro: la larghezza a metà altezza. Per una variabile
di Student abbiamo che il picco della funzione è nel suo valore atteso, ossia in
, dove la distribuzione ha valore massimo
![{\displaystyle {\frac {\Gamma ({\frac {n+1}{2}})}{{\sqrt {\pi n}}\Gamma ({\frac {n}{2}})}}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/730947e7275ff07dd9a87cd9233ed74b4d5df4a9)
Per cui troviamo i valori di
per i quali
assume altezza uguale a metà della massima assoluta.
![{\displaystyle {\frac {\Gamma ({\frac {n+1}{2}})}{2{\sqrt {\pi n}}\Gamma ({\frac {n}{2}})}}={\frac {\Gamma ({\frac {n+1}{2}})\left(1+{\frac {t^{2}}{n}}\right)^{-{\frac {n+1}{2}}}}{{\sqrt {\pi n}}\Gamma ({\frac {n}{2}})}}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/283bcf8d2506d7452ca0cb9c1e342d762f0b3073)
Per cui
![{\displaystyle {\frac {1}{2}}=\left(1+{\frac {t^{2}}{n}}\right)^{-{\frac {n+1}{2}}}\iff 2=\left(1+{\frac {t^{2}}{n}}\right)^{\frac {n+1}{2}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/091517d396fe642e79e336fea43193aabeea3bb5)
dove
ha due soluzioni, come ci aspettavamo dalla simmetria della funzione, coincidenti a
![{\displaystyle t_{\pm }=\pm {\sqrt {n\left(2^{\frac {2}{n+1}}-1\right)}}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/fa0e07ea62f0768c1963ce36803f1229b6f15c61)
Per cui la larghezza a mezza altezza della funzione è data da
![{\displaystyle t_{+}-t_{-}=2{\sqrt {n\left(2^{\frac {2}{n+1}}-1\right)}}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/40f9907e66da189325a77422e4f750da9afa34aa)
Eseguendo il limite per
troviamo un'espressione convergente a
![{\displaystyle \lim _{n\to \infty }t_{+}-t_{-}=2{\sqrt {\ln 4}}={\sqrt {8\ln 2}},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/174e7d7f32220e50f38c0fa17f573c5a2a045f2e)
che è l'equivalente della larghezza a metà altezza (FWHM) della normale standard. Viceversa per
otteniamo un FWHM = 2. Difatti per
la distribuzione t di Student coincide con una distribuzione di Lorentz-Cauchy di parametri
dove la FWHM è per l'appunto uguale a
.
Statistica
Intervallo di confidenza
La distribuzione di Student viene utilizzata per definire degli intervalli di confidenza per la media di una popolazione, sulla base degli stimatori puntuali
e
della sua media e della sua varianza. Dall'equazione
![{\displaystyle T={\frac {{\bar {X}}-\mu }{\sqrt {S_{n}^{2}/n}}},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a8d681f8f15ce2814a979108afa4b5f3c8550446)
si ha infatti
![{\displaystyle P(a\leqslant T\leqslant b)=P\left({\bar {X}}-b{\sqrt {S_{n}^{2}/n}}\leqslant \mu \leqslant {\bar {X}}-a{\sqrt {S_{n}^{2}/n}}\right).}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4ed1ea010893f85052dfb046ecb530430858e3be)
Scegliendo quindi dei quantili
per la distribuzione di Student con
gradi di libertà, si ha
![{\displaystyle \beta -\alpha =P(q_{\alpha }\leqslant T\leqslant q_{\beta })=P\left({\bar {X}}-q_{\beta }{\sqrt {S_{n}^{2}/n}}\leqslant \mu \leqslant {\bar {X}}-q_{\alpha }{\sqrt {S_{n}^{2}/n}}\right),}](https://wikimedia.org/api/rest_v1/media/math/render/svg/189a897b611252509c1ef888bfb48060a29bf2b8)
cioè un intervallo di confidenza per la media
con livello di confidenza
è:
.
Qualora si considerino intervalli simmetrici si può utilizzare l'indice
definito da
![{\displaystyle \alpha =P(|T|\leqslant z_{\alpha })=P(-z_{\alpha }\leqslant T\leqslant z_{\alpha })=2F(z_{\alpha })-1,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9315a25a0ee04463adcda6071ef3479fac8a2f88)
ossia
![{\displaystyle z_{\alpha }=q_{1-{\frac {\alpha }{2}}},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9be4d1a2a957c53e69de1c625ffb8631c755298c)
e si ottiene l'intervallo di confidenza per
con livello di confidenza
![{\displaystyle \left[{\bar {X}}-z_{\alpha }{\sqrt {S_{n}^{2}/n}}\ ,\ {\bar {X}}+z_{\alpha }{\sqrt {S_{n}^{2}/n}}\ \right].}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b4cec8215c964ce8eca55b0f757eacc6872dd9c8)
Altre distribuzioni
La distribuzione di Student con parametro
corrisponde alla distribuzione di Cauchy di parametri
: entrambe regolano il rapporto
tra due variabili aleatorie indipendenti aventi distribuzione normale standard.
Al tendere di
a infinito la distribuzione di Student con
gradi di libertà converge alla distribuzione normale standard
.
Se
è una variabile aleatoria con distribuzione t di Student di parametro
, allora
segue la distribuzione di Fisher-Snedecor di parametri
.
Tabella dei quantili
La seguente tabella[4] esprime, in funzione del parametro
(riga) e di particolari valori di
(colonna), i quantili
per la distribuzione di Student di parametro
:
![{\displaystyle P(T\leqslant q_{\alpha })=F(q_{\alpha })=\alpha .}](https://wikimedia.org/api/rest_v1/media/math/render/svg/70a894a82f66ec40131e12203c03f0b774e954bc)
L'ultima riga, indicata con "∞", si riferisce a una distribuzione normale standard.
n\α | 0,90 | 0,95 | 0,975 | 0,99 | 0,995 | 0,9975 | 0,999 | 0,9995 |
1 | 3,078 | 6,314 | 12,706 | 31,821 | 63,657 | 127,321 | 318,309 | 636,619 |
2 | 1,886 | 2,920 | 4,303 | 6,965 | 9,925 | 14,089 | 22,327 | 31,599 |
3 | 1,638 | 2,353 | 3,182 | 4,541 | 5,841 | 7,453 | 10,215 | 12,924 |
4 | 1,533 | 2,132 | 2,776 | 3,747 | 4,604 | 5,598 | 7,173 | 8,610 |
5 | 1,476 | 2,015 | 2,571 | 3,365 | 4,032 | 4,773 | 5,893 | 6,869 |
6 | 1,440 | 1,943 | 2,447 | 3,143 | 3,707 | 4,317 | 5,208 | 5,959 |
7 | 1,415 | 1,895 | 2,365 | 2,998 | 3,499 | 4,029 | 4,785 | 5,408 |
8 | 1,397 | 1,860 | 2,306 | 2,896 | 3,355 | 3,833 | 4,501 | 5,041 |
9 | 1,383 | 1,833 | 2,262 | 2,821 | 3,250 | 3,690 | 4,297 | 4,781 |
10 | 1,372 | 1,812 | 2,228 | 2,764 | 3,169 | 3,581 | 4,144 | 4,587 |
11 | 1,363 | 1,796 | 2,201 | 2,718 | 3,106 | 3,497 | 4,025 | 4,437 |
12 | 1,356 | 1,782 | 2,179 | 2,681 | 3,055 | 3,428 | 3,930 | 4,318 |
13 | 1,350 | 1,771 | 2,160 | 2,650 | 3,012 | 3,372 | 3,852 | 4,221 |
14 | 1,345 | 1,761 | 2,145 | 2,624 | 2,977 | 3,326 | 3,787 | 4,140 |
15 | 1,341 | 1,753 | 2,131 | 2,602 | 2,947 | 3,286 | 3,733 | 4,073 |
16 | 1,337 | 1,746 | 2,120 | 2,583 | 2,921 | 3,252 | 3,686 | 4,015 |
17 | 1,333 | 1,740 | 2,110 | 2,567 | 2,898 | 3,222 | 3,646 | 3,965 |
18 | 1,330 | 1,734 | 2,101 | 2,552 | 2,878 | 3,197 | 3,610 | 3,922 |
19 | 1,328 | 1,729 | 2,093 | 2,539 | 2,861 | 3,174 | 3,579 | 3,883 |
20 | 1,325 | 1,725 | 2,086 | 2,528 | 2,845 | 3,153 | 3,552 | 3,850 |
21 | 1,323 | 1,721 | 2,080 | 2,518 | 2,831 | 3,135 | 3,527 | 3,819 |
22 | 1,321 | 1,717 | 2,074 | 2,508 | 2,819 | 3,119 | 3,505 | 3,792 |
23 | 1,319 | 1,714 | 2,069 | 2,500 | 2,807 | 3,104 | 3,485 | 3,768 |
24 | 1,318 | 1,711 | 2,064 | 2,492 | 2,797 | 3,091 | 3,467 | 3,745 |
25 | 1,316 | 1,708 | 2,060 | 2,485 | 2,787 | 3,078 | 3,450 | 3,725 |
26 | 1,315 | 1,706 | 2,056 | 2,479 | 2,779 | 3,067 | 3,435 | 3,707 |
27 | 1,314 | 1,703 | 2,052 | 2,473 | 2,771 | 3,057 | 3,421 | 3,690 |
28 | 1,313 | 1,701 | 2,048 | 2,467 | 2,763 | 3,047 | 3,408 | 3,674 |
29 | 1,311 | 1,699 | 2,045 | 2,462 | 2,756 | 3,038 | 3,396 | 3,659 |
30 | 1,310 | 1,697 | 2,042 | 2,457 | 2,750 | 3,030 | 3,385 | 3,646 |
40 | 1,303 | 1,684 | 2,021 | 2,423 | 2,704 | 2,971 | 3,307 | 3,551 |
50 | 1,299 | 1,676 | 2,009 | 2,403 | 2,678 | 2,937 | 3,261 | 3,496 |
60 | 1,296 | 1,671 | 2,000 | 2,390 | 2,660 | 2,915 | 3,232 | 3,460 |
100 | 1,290 | 1,660 | 1,984 | 2,364 | 2,626 | 2,871 | 3,174 | 3,390 |
∞ | 1,282 | 1,645 | 1,960 | 2,326 | 2,576 | 2,807 | 3,090 | 3,291 |
Note
- ^ (EN) Simon Hurst, The Characteristic Function of the Student-t Distribution, in Financial Mathematics Research Report No. FMRR006-95, Statistics Research Report No. SRR044-95 (archiviato dall'url originale il 18 febbraio 2010).
- ^ (EN) Student (William Sealy Gosset), The probable error of a mean (PDF), in Biometrika, vol. 6, n. 1, marzo 1908, pp. 1–-25, DOI:10.1093/biomet/6.1.1.
- ^ (EN) Ronald Fisher, Applications of "Student's" distribution (PDF), in Metron, vol. 5, 1925, pp. 90-–104 (archiviato dall'url originale il 13 aprile 2011).
- ^ Valori critici calcolati con la funzione qt(p,g) di R.
Voci correlate
Altri progetti
Wikimedia Commons contiene immagini o altri file su Distribuzione t di Student
Collegamenti esterni
- (EN) Student’s t distribution, su Enciclopedia Britannica, Encyclopædia Britannica, Inc.
![Modifica su Wikidata](//upload.wikimedia.org/wikipedia/commons/thumb/7/73/Blue_pencil.svg/10px-Blue_pencil.svg.png)
- (EN) Eric W. Weisstein, Distribuzione t di Student, su MathWorld, Wolfram Research.
![Modifica su Wikidata](//upload.wikimedia.org/wikipedia/commons/thumb/7/73/Blue_pencil.svg/10px-Blue_pencil.svg.png)
- Probability, Statistics and Estimation in inglese. I primi Studentes a pagina 112.
- Il test di Student di F. Scotti.
Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica