Test di Fisher: che cos’è e in che consiste

Se il test di Fisher, l’analisi della varianza e il test del chi quadro ti affascinano al punto che vorresti approfondirne caratteristiche e ambiti di applicazione, allora significa che la statistica è la materia giusta per te!

Se sei in procinto di scegliere il tuo corso di laurea, se sei già laureato e desideri specializzarti o se per cultura e curiosità personale desideri entrare nel mondo dei calcoli probabilistici e delle ipotesi, ti consigliamo di leggere questo articolo.

Non si tratta di una lezione universitaria, né tantomeno di un complicatissimo post pieno di termini tecnici e formule incomprensibili; è più semplicemente un punto di partenza che ti fornirà una panoramica di base sulla materia e in particolare sui vari test di significatività, tra i quali anche quello di Fisher.

Significatività

Per comprendere meglio il test di Fisher bisogna partire dal termine ‘significatività’ afferente alla statistica.

Da Wikipedia:

“la significatività è la possibilità rilevante che compaia un determinato valore. Ci si riferisce anche come statisticamente differente da zero; ciò non significa che la ‘significatività’ sia rilevante, o vasta, come indurrebbe a pensare la parola. Ma solo che è diversa dal numero limite”

Successivamente, alla voce ‘livello di significatività’, lo stesso Wikipedia riporta:

“Il livello di significatività di un test è dato solitamente da una verifica d’ipotesi. Nel caso più semplice è definita come la probabilità di accettare o rigettare l’ipotesi nulla”

Per determinare con un buon grado di probabilità la presenza o l’assenza di differenze significative nei dati analizzati (rigettare o accettare un’ipotesi zero) vengono utilizzate due tipologie di metodi:

  1. Metodi statistici inferenziali non parametrici
    Procedimenti matematici che testano l’ipotesi statistica che non fa alcun assunto alle distribuzioni di frequenza delle variabili determinate.
  2. Metodi statistici deduttivi parametrici
    Procedimenti matematici che verificano le ipotesi statistiche che assumono che le distribuzioni delle variabili determinate abbiano caratteristiche certe.

Nei metodi del punto 1 il livello di misurazione può essere sia nominale che ordinale; il campione non deve essere aleatorio; la distribuzione di frequenza non deve essere normale; possono essere utilizzati campioni più piccoli.

Nei metodi del punto 2 invece: il livello di misurazione è di rapporto o di intervallo; il campione deve essere aleatorio; la distribuzione della frequenza deve essere normale; la variazione dei risultati tra ogni frequenza deve essere similare.

Cos’è il test esatto di Fisher

Il test esatto di Fisher è un test di significatività utilizzato dalla statistica non parametrica per la verifica dell’ipotesi.

Prende il nome dal suo fondatore, Ronald Fisher, il matematico/statistico che ha fondato i concetti sui quali si basa la moderna statistica matematica.

Il test permette di verificare se le differente tra i dati possono essere dovute al caso; nell’eventualità in cui il test dimostri che non possono essere frutto del caso si parla di ‘significatività statistica‘.

Viene utilizzato in situazioni in cui sono presenti due variabili nominali dicotomiche e campioni piccoli.
L’obiettivo del test è verificare se i dati dicotomici di due campioni riassunti in una tabella di contingenza 2×2 sono compatibili con l’ipotesi H0 (ipotesi nulla) che i due campioni abbiano la stessa suddivisione dicotomica, e che quindi le eventuali differenze osservate attraverso i dati sono dovute ad un puro e semplice caso.

Se i campioni presi in esame sono sufficientemente grandi è possibile utilizzare il test del chi quadro con 1 grado di libertà.

La differenza tra i due test risiede nel fatto che mentre quello del chi quadrato è esatto asintoticamente soltanto per dimensioni molto grandi dei campioni, il test di Fisher è sempre esatto.

formula varianza

Cos’è l’ANOVA

ANOVA è l’acronimo di Analysis of Variance, espressione con la quale vengono identificate un insieme di tecniche afferenti alla statistica inferenziale.

Attraverso lo sviluppo della formula della varianza è possibile confrontare due o più gruppi di dati, confrontando la variabilità interna a questi gruppi con la variabilità tra i gruppi.

Da ciò si evidenzia l’ipotesi alla base dell’analisi della varianza e cioè che nell’ambito dei dati gruppi è possibile scomporre la varianza in: Varianza Within (varianza interna ai gruppi) e Varianza Between (varianza tra i gruppi).

La motivazione che porta a distinguere le due componenti  è la convinzione che alcuni fenomeni trovano spiegazione nelle caratteristiche peculiari del gruppo di appartenenza.

Formazione

La statistica è una materia che rientra nei piani di studio di due corsi di laurea triennali Unicusano:

In entrambi i casi il corso mira a fornire agli studenti le tecniche di base della statistica descrittiva, del calcolo delle probabilità e della statistica inferenziale.

In particolare, durante il modulo numero 5 saranno affrontati argomenti come: la teoria della stima; il concetto di variabili casuali; le variabili casuali discrete; le variabili casuali continue (Gaussiana, Normale, Fisher e chi quadrato).

Per approfondire la struttura didattica del corso o per richiedere ulteriori dettagli sui percorsi di laurea triennali puoi contattare il nostro staff attraverso il modulo online che trovi cliccando qui!


CHIEDI INFORMAZIONI

icona link