Test di Fisher: che cos’è e in che consiste
Se il test di Fisher, l’analisi della varianza e il test del chi quadro ti affascinano al punto che vorresti approfondirne caratteristiche e ambiti di applicazione, allora significa che la statistica è la materia giusta per te!
Se sei in procinto di scegliere il tuo corso di laurea, se sei già laureato e desideri specializzarti o se per cultura e curiosità personale desideri entrare nel mondo dei calcoli probabilistici e delle ipotesi, ti consigliamo di leggere questo articolo.
Non si tratta di una lezione universitaria, né tantomeno di un complicatissimo post pieno di termini tecnici e formule incomprensibili; è più semplicemente un punto di partenza che ti fornirà una panoramica di base sulla materia e in particolare sui vari test di significatività, tra i quali anche quello di Fisher.
Significatività
Per comprendere meglio il test di Fisher bisogna partire dal termine ‘significatività’ afferente alla statistica.
Da Wikipedia:
“la significatività è la possibilità rilevante che compaia un determinato valore. Ci si riferisce anche come statisticamente differente da zero; ciò non significa che la ‘significatività’ sia rilevante, o vasta, come indurrebbe a pensare la parola. Ma solo che è diversa dal numero limite”
Successivamente, alla voce ‘livello di significatività’, lo stesso Wikipedia riporta:
“Il livello di significatività di un test è dato solitamente da una verifica d’ipotesi. Nel caso più semplice è definita come la probabilità di accettare o rigettare l’ipotesi nulla”
Per determinare con un buon grado di probabilità la presenza o l’assenza di differenze significative nei dati analizzati (rigettare o accettare un’ipotesi zero) vengono utilizzate due tipologie di metodi:
-
Metodi statistici inferenziali non parametrici
Procedimenti matematici che testano l’ipotesi statistica che non fa alcun assunto alle distribuzioni di frequenza delle variabili determinate. -
Metodi statistici deduttivi parametrici
Procedimenti matematici che verificano le ipotesi statistiche che assumono che le distribuzioni delle variabili determinate abbiano caratteristiche certe.
Nei metodi del punto 1 il livello di misurazione può essere sia nominale che ordinale; il campione non deve essere aleatorio; la distribuzione di frequenza non deve essere normale; possono essere utilizzati campioni più piccoli.
Nei metodi del punto 2 invece: il livello di misurazione è di rapporto o di intervallo; il campione deve essere aleatorio; la distribuzione della frequenza deve essere normale; la variazione dei risultati tra ogni frequenza deve essere similare.
Cos’è il test esatto di Fisher
Il test esatto di Fisher è un test di significatività utilizzato dalla statistica non parametrica per la verifica dell’ipotesi.
Prende il nome dal suo fondatore, Ronald Fisher, il matematico/statistico che ha fondato i concetti sui quali si basa la moderna statistica matematica.
Il test permette di verificare se le differente tra i dati possono essere dovute al caso; nell’eventualità in cui il test dimostri che non possono essere frutto del caso si parla di ‘significatività statistica‘.
Viene utilizzato in situazioni in cui sono presenti due variabili nominali dicotomiche e campioni piccoli.
L’obiettivo del test è verificare se i dati dicotomici di due campioni riassunti in una tabella di contingenza 2×2 sono compatibili con l’ipotesi H0 (ipotesi nulla) che i due campioni abbiano la stessa suddivisione dicotomica, e che quindi le eventuali differenze osservate attraverso i dati sono dovute ad un puro e semplice caso.
Se i campioni presi in esame sono sufficientemente grandi è possibile utilizzare il test del chi quadro con 1 grado di libertà.
La differenza tra i due test risiede nel fatto che mentre quello del chi quadrato è esatto asintoticamente soltanto per dimensioni molto grandi dei campioni, il test di Fisher è sempre esatto.
Cos’è l’ANOVA
ANOVA è l’acronimo di Analysis of Variance, espressione con la quale vengono identificate un insieme di tecniche afferenti alla statistica inferenziale.
Attraverso lo sviluppo della formula della varianza è possibile confrontare due o più gruppi di dati, confrontando la variabilità interna a questi gruppi con la variabilità tra i gruppi.
Da ciò si evidenzia l’ipotesi alla base dell’analisi della varianza e cioè che nell’ambito dei dati gruppi è possibile scomporre la varianza in: Varianza Within (varianza interna ai gruppi) e Varianza Between (varianza tra i gruppi).
La motivazione che porta a distinguere le due componenti è la convinzione che alcuni fenomeni trovano spiegazione nelle caratteristiche peculiari del gruppo di appartenenza.
Formazione
La statistica è una materia che rientra nei piani di studio di due corsi di laurea triennali Unicusano:
- Corso di laurea in Economia Aziendale e Management
- Corso di laurea in Scienze Politiche e delle Relazioni Internazionali
In entrambi i casi il corso mira a fornire agli studenti le tecniche di base della statistica descrittiva, del calcolo delle probabilità e della statistica inferenziale.
In particolare, durante il modulo numero 5 saranno affrontati argomenti come: la teoria della stima; il concetto di variabili casuali; le variabili casuali discrete; le variabili casuali continue (Gaussiana, Normale, Fisher e chi quadrato).
Per approfondire la struttura didattica del corso o per richiedere ulteriori dettagli sui percorsi di laurea triennali puoi contattare il nostro staff attraverso il modulo online che trovi cliccando qui!