Post on 16-Feb-2019
1. La statistica nella ricerca scientifica
Pubblicazione dei risultati → Presentazione dei dati e la loro elaborazione devono seguire criteri universalmente validi
Impossibile verifica dei risultati da parte di altri studiosi → raccolta dati non corretta, loro presentazione inadeguata ed analisi statistica non appropriata
La metodologia statistica rappresenta uno strumento indispensabile per lo studio, l’interpretazione e la divulgazione delle informazioni contenute nei dati
sperimentali
La metodologia statistica fornisce un criterio oggettivo alla spiegazione del fenomeno
La ricerca sperimentale procede secondo le seguenti fasi:
Osservazione del fenomeno
Formulazione dell’ipotesi
Sperimentazione
Raccolta dati
Discussione
Accettazione o rifiuto dell’ipotesi
Disegno sperimentalePermette che le osservazioni in natura e le
ripetizioni in laboratorio siano scelte e programmate in funzione della ricerca e delle ipotesi esplicative e non casuali
CampionamentoPermette di raccogliere i
dati in funzione dello scopo della ricerca
DescrizioneInsieme delle tecniche utilizzate per la sintesi dei dati grezzi in
parametri statistici (media, deviazione standard, ecc.)
Utilizzazione del test statisticoProcesso logico-matematico che, mediante il calcolo di probabilità specifiche, porta alla conclusione di non o
poter respingere l’ipotesi della casualità
1.1 Come è organizzata la metodologia statistica?
2. Principi e definizioni
Popolazione: totalità degli individui aventi in comune almeno un
carattere
Variabile: caratteristica di una popolazione che può essere misurata
2A. Variabile Discreta: assume solo valori isolati2B. Variabile Continua: tutti i valori di un intervallo
1. Variabile qualitativa: generate da risposte categoriali (es. con un test sulla tossicità, le cavie muoiono o sopravvivono; con un farmaco, i pazienti guariscono o
rimangono ammalati; ecc.);2. Variabile quantitativa: risultato di risposte numeriche ( es., per un’analisi del
dimorfismo animale, le dimensioni dell’organo o il peso dei maschi e delle femmine)
Parametro: stima delle caratteristiche della popolazioneEs. la lunghezza del fusto è di 10 cm
Lunghezza → variabile10 cm → parametro
Campione: parte della popolazione
Fattore: elemento, antropico o naturale, esterno alla popolazione che modifica in maniera più o meno evidente i parametri della popolazione.
Es., l’irrigazione, la concimazione, la tessitura del suolo, ecc.
Livelli: i livelli ai quali i fattori sono testatiEs., dose di fertilizzante, diversi gradi di tessitura, ecc.
Trattamenti: il livello o la combinazione di più livelli di uno o più fattori applicato ad un’unità sperimentale.
Es. 0, 10 e 20 Kg/ha di azoto:Azoto → Fattore
Dose fertilizzante → Livello0, 10 e 20 Kg/ha → Trattamenti
Unità sperimentale: è un’unità di materiale sperimentale alla quale è stato applicato un trattamento.
Es., individuo, una pianta o un’intera parcella
Replica: è un’unità sperimentale ripetuta
0 Kg/ha Azoto
10 Kg/ha azoto
20 Kg/ha azoto
Unità sperimentale
Unità sperimentale
Unità sperimentale
0 Kg/ha Azoto
10 Kg/ha azoto
20 Kg/ha azoto
0 Kg/ha Azoto
10 Kg/ha azoto
20 Kg/ha azoto
1 replica 2 replica 3 replica
Parametro statistico: indice che riassume sinteticamente una o più varianti del campione.
Es. media, moda, deviazione standard, ecc.
Inferenza: estensione dei risultati del campione alla totalità della popolazione
Statistica descrittiva: Insieme delle tecniche utilizzate per la sintesi dei dati grezzi
in pochi indici informativi (Es. metodologia per il calcolo della media, della
deviazione standard, ecc.)
Statistica inferenziale: insieme dei metodi con cui si possono elaborare i dati dei
campioni per dedurne omogeneità o differenze nelle caratteristiche analizzate, al
fine di estendere le conclusioni alla popolazione
3. Studio di un insieme di dati
La sperimentazione porta all’ottenimento di una serie di dati non organizzati
Nessun giudizio sulle ipotesi formulate
“E’ necessario organizzare i dati in modo sintetico e condensato”
1° criterio di organizzazione dei dati: distribuzione per classi di frequenza
Esempio: consideriamo 50 osservazioni di altezza di sorgo da fibra
Raggruppamento per frequenza
Raggruppamento per classi di frequenza e frequenza
relativa (numero di individui della classe/numero totale
d’individui)
Formula per calcolo numero di classi
K = 1 + 3.322 log n
K: numero di classi
n: numero osservazioni
Rappresentazione grafica
VantaggiPresenta la totalità delle
informazioni
SvantaggiA) l’insieme non è chiaro → presentare sotto forma più breve e più chiara
B) l’insieme non si presta a calcoli né a rigorosi confronti → occorre trasformarlo
“Non è efficace”
Un parametro statistico è più efficace:1) quanto meglio riassume il contenuto informativo dei dati iniziali con la minor
perdita di informazioni (sintetico)2) quanto meglio si presta ai calcoli ed ai test ulteriori (numerico e
trasformabile)
2° criterio di organizzazione dei dati: la media
La media aritmetica (m) è ottenuta dividendo la somma dei valori per il numero dei casi
Es. consideriamo le seguenti tre serie di misure:A: 99, 100, 101 (media = m = 100)B: 90, 100, 110 (media = m = 100)C: 1, 100 ,199 (media = m = 100)
Risultato: la media da sola non è in grado di fornire una sufficiente informazione sul campione da cui è estratta.
E’ necessario considerare la dispersione di valori attorno alla media cioè la variabilità del set di dati
La variabilità può essere espressa in diversi modi:1. Intervallo di variazione: differenza tra il valore massimo e minimo;
2. Devianza o scarto quadratico medio: somma delle singole distanze dalla media elevate al quadrato
3. Varianza (s2): rapporto tra la devianza ed il numero delle osservazioni meno 1 (gdL)
4. Deviazione standard (s): radice quadrata della varianza;5. Coefficiente di variazione (CV): rapporto tra la deviazione standard e la media il
tutto per 100
valori ScartiQuadrati degli
scarti18,2 18,2 - 20,3 = -2,1 4,4122,2 22,2 - 20,3 = 1,90 3,6118,7 18,7 - 20,3 = -1,60 2,5622,6 22,6 - 20,3 = 2,3 5,2919,8 19,8 - 20,3 = -0,5 0,25
101,5 0 16,12
Esempio: calcolare la media, la varianza e la deviazione standard delle produzioni parcellari di frumento (Kg)
Totali
1. Media (m) = 101,5 Kg
2. Varianza (s2) : somma quadrati degli scarti/ Gradi libertà16,12 / 4 = 4,03
3. Deviazione standard (s): √Varianza√4,03 = 2,0074
Gradi di libertà: numero osservazioni meno uno
(n-1) = 5-1=4
Numero osservazioni (n) = 5
Soluzione
3.1 Che cosa significa “gradi di libertà”
I gradi di libertà sono “la quantità di dati necessaria alla stima di un parametro, ossia il numero di dati indipendenti”
Matematicamente corrispondono al numero delle osservazioni meno 1
valori ScartiQuadrati degli
scarti18,2 18,2 - 20,3 = -2,1 4,4122,2 22,2 - 20,3 = 1,90 3,6118,7 18,7 - 20,3 = -1,60 2,5622,6 22,6 - 20,3 = 2,3 5,2919,8 19,8 - 20,3 = -0,5 0,25
101,5 0 16,12
Consideriamo l’esempio precedente
La somma degli scarti è uguale a 0 Per poter determinare la somma dei quadrati degli scarti è
sufficiente disporre di tutti gli scarti meno uno poiché
quest’ultimo è ricavabile per differenza (cioè non è
indipendente)
Se non è indipendente significa che la sua informazione è già contenuta
implicitamente negli altri dati
3.2 Distribuzione normale: relazioni campione - popolazione
I parametri statistici, media, varianza e deviazione standard, fin qui discussi sono relativi ad un campione, poiché teoricamente è impossibile determinare tali
parametri per un’intera popolazione
Fino a quale punto i dati raccolti su un campione permettono di stimare le caratteristiche della popolazione di origine?
Per dare una risposta a tale domanda facciamo il percorso inverso: partiamo dalle caratteristiche della popolazione per arrivare a quelle del
campione
L’esperienza ha dimostrato che le variabili biologiche quantitative di una
popolazione sono “distribuite normalmente”
Distribuzione del peso di 175 topi Distribuzione del peso di un numero elevatissimo di topi
Che significa “distribuite normalmente”?
In una popolazione normalmente distribuita si ha un addensamento dei valori
attorno ad una frequenza massima ed una dispersione simmetrica che declina man
mano che ci si allontana dai valori centrali.
Tipica curva a campana o di Gauss
Caratteristiche della curva di Gauss
1. è simmetrica rispetto ad un asse2. l’asse di simmetria coincide con la
media3. le distanze misurate a partire dalla
media sono le deviazioni standard
Media
La media della popolazione (μ) è diversa di quella del campione
La deviazione standard della popolazione (σ) è diversa di quella del campione
Quanto si scosta la media di un campione da una media della popolazione?
Studi matematici hanno calcolato la
probabilità che un campione preso a caso
dalla popolazione presenta un valore medio
(m) compreso entro certi limiti
La probabilità di estrarre un campione che abbia
1) una media uguale a quella della popolazione ± 1σ è del 68%
m = μ ±1σ → 68%;
2) una media uguale a quella della popolazione ± 2σ è del 95,44%
m = μ ± 2σ → 95,44%;
3) una media uguale a quella della popolazione ± 3σ è del 99,73%
m = μ ±3σ → 99,73%;
Conclusioni:
1. a partire da un campione estratto da
una popolazione, è impossibile calcolare
esattamente i parametri μ e σ;
2. è invece possibile stimare i loro valori
più probabili che sono la media del
campione (m) e la deviazione standard (s)
Teorema del limite centrale“Se una popolazione è distribuita normalmente con una media μ ed una deviazione standard σ, le medie (m1, m2, …., mn) di un numero infinito di campioni, ciascuno
composto da n individui estratti a caso dalla popolazione si distribuiscono secondo la curva di distribuzione normale la cui media è uguale a m e la deviazione
standard è uguale a s/√n”
Il valore s/√n viene definito deviazione standard della media o errore standard (sm, SE)
Dai dati di un campione è possibile inferire sulla popolazione :
1. m ± 1sm ha il 67% delle probabilità di contenere la media della popolazione
2. m ± 2sm ha il 95% delle probabilità di contenere la media della popolazione
3. m ± 3sm ha il 99% delle probabilità di contenere la media della popolazione
Conclusioni pratiche
1. Una serie di misurazioni devono essere considerati come n individui di un
campione la cui media (m) e deviazione standard (s) rappresentano la migliore
stima della media (μ) e deviazione standard (σ) della popolazione da cui il
campione è estratto;
2. L’estrazione del campione deve essere casuale;
3. Una serie di campioni ognuno aventi n individui ed estratti da una
popolazione, hanno una media m ed una deviazione standard pari a s/√n che
è l’errore standard
4 Statistica inferenziale: il confronto fra campioni
1
2
In precedenzaConfronto fra un
singolo campione e una popolazione
Confronto fra due campioni:1. Fanno parte della stessa
popolazione?2. Fanno parte di
popolazioni diverse?
PraticamenteScelto un arbitrario livello di
probabilità, si stabilisce se due campioni trattati in maniera diversa
siano significativamente differenti tra loro
4.1 Risultati significativi e non-significativi
Conoscere con chiarezza 1) le convenzioni abitualmente usate nell’applicazione dei test statistici e 2) alcune nozioni teoriche fondamentali nell’inferenza.
Test statistico: procedure che, sulla base di dati campionari e con un certo grado di probabilità, consente di decidere se è ragionevole respingere l’ipotesi
nulla H0 oppure non esistono elementi sufficienti per respingerla.
Ipotesi nulla o H0: gli effetti osservati nei campioni sono dovuti a fluttuazioni casuali
1. Se l’HO è accettata → i campioni non sono significativamente differenti: appartengono alla stessa popolazione;
2. Se l’HO non è accettata → i campioni sono significativamente differenti: appartengono a popolazioni differenti;
La scelta delle ipotesi (H0) è fondata sulla probabilità di ottenere per caso il risultato osservato nel campione nella condizione che l’ipotesi nulla sia vera. Quanto più tale
probabilità è piccola, tanto più è improbabile che H0 sia vera.
La probabilità dipende dal valore stimato con il test o indice statistico (P)
L’insieme di valori ottenibili con il test formano la distribuzione campionaria
dell’indice statistico (P) e può essere diviso in due zone:
1. la zona di rifiuto dell’ipotesi nulla (regione critica), che corrisponde ai valori
collocati agli estremi della distribuzione; quelli che hanno una probabilità piccola di
verificarsi per caso;
2. la zona di accettazione dell’ipotesi nulla, che comprende i restanti valori
Se il valore dell’indice statistico cade nella zona di rifiuto, si respinge l’ipotesi nulla
Per convenzione, i livelli di soglia delle probabilità sono tre:0.05 (5%), 0.01 (1%) e 0.001 (0.1%)
4.2 Confronto tra due medie con il test di t Student
Assunzioni:A. I campioni provengono da popolazioni distribuite normalmente
B. le rispettive varianze siano omogenee (omoscedasticità)
Quando si utilizza?1. per il confronto della media di un campione (media osservata) con una generica media attesa
20 21 22 23 24 25 26VAR1
0
1
2
3
Cou
nt
One-sample t test of VAR1 with 7 cases; Ho: Mean = 25.00000
Mean = 23.00000 SD = 1.73205 95.00% CI = 21.39812 to 24.60188t = -3.05505df = 6 Prob = 0.02237
Con probabilità inferiore a 0.05 (di commettere un errore) si rifiuta l’ipotesi nulla, cioè le differenze
non sono dovute al caso
Praticamente:Le sostanze tossiche disperse
inibiscono la crescita delle piante della specie A in modo significativo
Soluzione:
1.1 1.2 1.3 1.4VAR1
0
5
10
15
Cou
nt
One-sample t test of VAR1 with 13 cases; Ho: Mean =1.25000
Mean = 1.23538 99.00% CI=1.18579 to 1.28498SD= 0.05854 t = -0.90018df = 12 Prob = 0.38573
Con probabilità inferiore a 0.01 (di commettere un errore) si accetta l’ipotesi nulla, cioè le differenze sono dovute al caso
Praticamente:La dimensione media dei 13 individui della specie Hetrocypris incongruens
pescati nel fiume, non è significativamente diversa da quella
degli individui della stessa specie che vivono nei laghi della regione.
2. Confronto tra le medie di due campioni indipendenti
2A. Confronto tra un campione di individui sottoposti a trattamento ed un altro campione di individui che servono come controllo (non trattato)
Test unilaterale o ad una coda: il test dirà se una media è superiore ad un’altra
escludendo a priori che essa possa essere minore. O viceversa, ma solamente
l’una o l’altra.
2B. Confronto tra le medie di due trattamenti diversi
Test bilaterale o a due code: hanno significato tutte le teoriche possibili risposte.
Questo test stabilisce se le due medie sono differenti
Entrambi i test si possono attuare sia con campioni indipendenti o appaiati sia su campioni dipendenti o non appaiati
Sono campioni dipendenti o appaiati quando un’osservazione di un campione si accoppia ad una sola osservazione dell’altro campione
Esempio 3
Osservare che i dati sono appaiati
La sostanza può essere la causa di variazioni significative di peso?
Paired samples t test on PRIMA vs DOPO with 10 cases
Mean PRIMA = 168.20000
Mean DOPO = 177.40000
Mean Difference = -9.20000
99.00%
CI = -18.13032 to -0.26968
SD Difference = 8.68971
t = -3.34798
df = 9
Prob = 0.00855
Prob = 0.00855 < 0.05
Si rifiuta l’ipotesi nulla in quanto la probabilità che la differenza riscontrata sia dovuta al caso è minore di 0.05
Praticamente: la nuova dieta determina nelle cavie una differenza ponderale significativa
Sono campioni indipendenti o dati non appaiati campioni formati da individui differenti. Quindi sono due gruppi di osservazioni ottenute in modo indipendente.
Vantaggi: possono avere un numero differente di osservazioni e sono espressione della variabilità casuale
Esempio 4
Gli animali cresciuti nella soluzione con concentrazione algale maggiore (gruppo X1) hanno raggiunto dimensioni significativamente superiori a quelli cresciuti nella soluzione con concentrazione
algale minore (gruppo X2) ?
In questo caso i dati sono indipendenti
X2X1
CONC
2
3
4
5
VAR
IAB
L
05101520Count
0 5 10 15 20Count
Two-sample t test on VARIABL grouped by CONC$Group N Mean SDX1 20 4.04430 0.12596X2 20 3.05135 0.08995
Separate Variancet = 28.68940
df = 34.4 Prob = 0.00000
Difference in Means = 0.99295 95.00%
CI = 0.92264 to 1.06326
Pooled Variancet = 28.68940
df = 38 Prob = 0.00000
Difference in Means = 0.99295 95.00%
CI = 0.92289 to 1.06301
Prob = 0.00000 << 0.05Si rifiuta l’ipotesi nulla in quanto la probabilità
che la differenza riscontrata sia dovuta al caso è minore di 0.05
PraticamenteLa maggior concentrazione algale
influisce in modo altamente significativo sulla maggior crescita
delle Daphnie
Varianza raggruppata o pooled (si calcola quando le varianze tra i due
campioni non sono differenti)
X2X1
ROCCE
6
7
8
9
PH
051015Count
0 5 10 15Count
Two-sample t test on PH grouped by ROCCE
Group N Mean SDX1 12 8.11667 0.12287X2 13 7.13615 0.17727
Separate Variancet =16.17330
df = 21.4 Prob = 0.00000
Difference in Means = 0.98051 95.00%
CI = 0.85458 to1.10644
Pooled Variancet =15.93822
df = 23 Prob = 0.00000
Difference in Means = 0.98051 95.00%
CI = 0.85325 to 1.10778
Si rifiuta l’ipotesi nulla in quanto la probabilità che la differenza riscontrata sia dovuta al caso
è minore di 0.05
PraticamenteI due gruppi di laghi hanno un pH
medio statisticamente molto diverso
4.3 Errore di I e II tipo
In ogni confronto è possibile, per effetto del caso:1. che venga considerato diverso (rifiuto dell’ipotesi nulla) ciò che in realtà non lo è
(errore di tipo I o α)2. che venga considerato simile (accettazione dell’ipotesi nulla) ciò che in realtà è
differente (errore di tipo II o β)
Non è possibile evitare tali errori, ma è possibile stabilire un limite massimo in cui il caso possa condurre a commettere errori
All’inizio di ogni test si stabiliscono i valori di α o β
Lo scarto di α dall’unità rappresenta il livello di protezione del testEsempio: con α=0.05, il livello di protezione è pari a 0.95 cioè al 95% delle probabilità
Lo scarto di β dall’unità, rappresenta il livello di potenza del test cioè la capacità di evidenziare differenze
Esempio nell’utilizzare diversi livelli di protezione e potenza del test
Se si effettua una prova di pre-screening per individuare specie di probabile
interesse per la produzione di biomassa, potrebbe essere utile abbassare il
livello di protezione (α=0.1) a vantaggio di una maggiore potenza del test.
Quindi, è meglio correre il rischio di includere specie che potrebbero essere
inferiori, piuttosto che eliminare specie che potrebbero rivelarsi di estremo
interesse
La potenza del test
1. diminuisce all’aumentare di α
2. Aumenta se l’effetto del trattamento è maggiore
3. Aumenta se la varianza diminuisce (incremento del numero delle osservazioni)
5. Analisi della varianza (ANOVA)
Nella ricerca sperimentale, il confronto avviene spesso simultaneamente tra più di due gruppi di individui
“Non è corretto ricorrere al test t Student per ripetere l’analisi tante volte quanti sono i possibili confronti a coppie tra i singoli gruppi”
Perché ?
Con il t test
1. si utilizza solo una parte dei dati
2. la probabilità α prescelta per l’accettazione dell’ipotesi nulla è valida solamente per
ogni singolo confronto
L’analisi della varianza consente di effettuare il confronto simultaneo tra più medie
mantenendo invariata la probabilità α prefissata
Novità introdotta dall’ANOVA:Permette di scomporre e di misurare l’incidenza delle diverse fonti di variazione sui
valori osservati di due o più gruppi
Permette la ripartizione della varianza totale della variabile dipendente nella varie componenti attribuibili a fonti di variabilità nota (variabili indipendenti) e non nota
(errore)
Esempio Con il t testPer confrontare l’effetto di due tossici su un gruppo di cavie questi dovevano essere raggruppati il più omogeneo possibile. Cioè gli animali dovevano essere raggruppati per sesso, età, dimensione, ecc. Quindi, le conclusioni sono limitate al gruppo di animali con le caratteristiche prescelte, senza
la possibilità di estensione ad altri caratteri. Per comprendere l’incidenza degli altri caratteri si doveva ripetere l’esperimento variando un carattere alla volta.
Con l’ANOVAConoscendo le cause ed i diversi fattori, è possibile attribuire ad ognuna di essi la parte di
effetto determinata e contemporaneamente ridurre la variabilità d’errore.Quindi, posso testare contemporaneamente l’effetto dei diversi fattori e le loro interazioni:
1) sesso2) età
3) dimensioni
Il giudizio di significatività viene dedotto dal rapporto tra varianza apportata dal trattamento (oggetto d’indagine) e quella dovuta ai fattori non controllabili (errore o
varianza dovuta al caso).Tale rapporto (Foss) viene poi confrontato con la distribuzione di F (statistica di Fisher)
(Ftab)
Se Foss≥ a Ftab, alla probabilità prefissata (α=0.05 o α=0.01)
L’ipotesi nulla può essere rifiutata → almeno una delle medie è diversa dalle altre
SS: scarti quadratici dei fattori; gdl: gradi di libertà; MS: varianza; F: rapporto fra varianze dei fattori e dell’errore; P: livello di significatività
5.1 Assunzioni
1. l’errore e le osservazioni devono essere distribuite normalmente ed
indipendentemente
2. le varianze dei campioni devono essere omogenee (omoscedasticità)
3. le varianze dei campioni non sono correlate alle rispettive medie
4. gli effetti principali devono essere additivi
1A. Distribuzione normale ed indipendente dell’errore
Procedura
1. Costruire la tabella degli
errori: ad ogni dato si sottrae
la media generale, quella del
trattamento e quella del blocco
(se è un disegno a blocchi
randomizzati)
2. Osservare l’andamento
dell’errore: es. errori differenti
tra i trattamenti indicano non
indipendenza
L’errore è simile nei blocchi 1 e 4, e 2 e 3, per cui non è distribuito in modo randomizzato
Soluzione: trasformazione dei dati
1B. Le osservazioni devono essere distribuite normalmente
Test di Kolmogorv-Smirnov
2. Le varianze dei campioni devono essere omogenee (omoscedasticità)
Test negativo: trasformazione dei dati
Test HartleyTest CochranTest BartlettTest Levene
Test Bartlett si utilizza quando ci sono dati mancanti
Test Levene è preferibile in quanto è il più robusto
Comunque per osservare che le varianze siano omogenee è bene controllare graficamente la distribuzione dell’errore sia prima del test sia dopo aver
trasformato i dati
Test negativi: trasformazione dei
dati
4. gli effetti principali devono essere additivi Test di Tukey
Trasformazione dei dati
La trasformazione dei dati stabilizza le varianze, normalizza le distribuzioni e linearizza i rapporti fra le variabili
Esistono diversi tipi di trasformazione: logaritmica, esponenziale, ecc.
Considerazioni per la scelta del tipo di trasformazione:
1. La logaritmica → effetto moltiplicativo dell’errore o quando la varianza è
correlata alla media
2. radice quadrata → rende le varianze omogenee
3. reciproci → efficace quando la varianza aumenta in modo molto pronunciato
rispetto alla media
4. trasformazioni angolari → dati in proporzioni o percentuali
Esempio 5bis
I dati di produzione di queste specie allevate a differenti concentrazioni di azoto
1) sono distribuiti normalmente?
2) le varianze tra i gruppi sono omogenee?
Data source: Data 1 in esempio 5bis
Normality Test: Failed (P < 0,050)
Equal Variance Test: Failed (P < 0,050)
Group Name N Missing Mean Std Dev SEMRN0 4 0 0,300 0,107 0,0535RN1 4 0 0,400 0,0589 0,0294AN0 4 0 2,400 0,589 0,294AN1 4 0 2,900 0,462 0,231QN0 4 0 137,000 23,367 11,683QN1 4 0 151,000 20,116 10,058
Source of Variation DF SS MS F P Between Groups 5 108713,680 21742,736 137,143 <0,001Residual 18 2853,725 158,540Total 23 111567,405
The differences in the mean values among the treatment groups are greater than wouldbe expected by chance; there is a statistically significant difference (P = <0,001).
Power of performed test with alpha = 0,050: 1,000
…i test indicano che i dati non sono distribuiti normalmente ed i gruppi non mostrano varianze omogenee
Data source: Data 1 in esempio 5bis
Normality Test: Passed (P = 0,339)
Equal Variance Test: Passed (P = 0,441)
Group Name N Missing Mean Std Dev SEMln(col(1)) 4 0 -1,253 0,366 0,183ln(col(2)) 4 0 -0,925 0,154 0,0771ln(col(3)) 4 0 0,852 0,250 0,125ln(col(4)) 4 0 1,055 0,160 0,0801ln(col(5)) 4 0 4,909 0,174 0,0872ln(col(6)) 4 0 5,011 0,134 0,0670
Source of Variation DF SS MS F P Between Groups 5 151,806 30,36 618,380 <0,001Residual 18 0,884 0,0491Total 23 152,689
….Dopo la trasformazione dei dati ( in Ln), si è ricorso nuovamente ai tests
…..i test indicano che ora i dati mostrano una distribuzione normale ed i gruppi hanno una varianza omogenea
5.2 Analisi della varianza a un criterio di classificazione (ANOVA I)
Caratteristiche
1 fattore a più livelli
Esempio 6
Source Sum-of-Squares df Mean-Square F-ratio P
FATTORE$ 0.50294 2 0.25147 2.53815 0.12043
Error 1.18890 12 0.09908
P > 0.05 per cui si accetta l’ipotesi nulla, cioè le differenze sono dovuta al caso
PraticamenteLe tre zone non mostrano differenze significative nella quantità in ferro
5.3 Confronti multipli o a posteriori
Quando il confronto statistico avviene fra più di due campioni e l’ANOVA mostra differenze significative,
per conoscere quali gruppi sono significativamente differenti e quali no
confrontano le medie
I confronti possono avvenire fra singole medie o fra gruppi di medie
Cultivar XCultivar Y
20 Kg/ha azoto80 Kg/ha azoto
X20X80Y20Y80
XY
2040
Confronto1 2 3
Confronto sempliceConfronto complesso
5.3.1 Tipi di test post-hoc Esistono diverse tipologie di test posteriori
Bonferroni, LSD, Tukey,SNK, Sheffé, Dunnet, Duncan.
Considerazioni sulla scelta del tipo di test
Quando si fanno confronti multipli, si possono commettere due tipi di errori:
1. αc : errore riferito al confronto (comparison wise) che indica la probabilità di
dichiarare almeno un confronto significativo quando in realtà non lo è
2. αe : errore riferito a tutto l’esperimento (experiment wise) determinato
dall’incremento del numero di confronti e quindi del comparison wise,
Man mano che aumentano il numero di confronti, α tende a crescere (cioè aumenta l’errore di tipo I)
Può accadere che confronti tra medie possano risultare significativi mentre il test ANOVA aveva evidenziato una significatività (cioè almeno una media differiva dalle altre)
Oppure, ANOVA non rileva differenze significative mentre i test post-hoc le mettano in luce.
causa
Soluzione: effettuare il test solo se i dati ANOVA hanno rilevato differenze significative tra i trattamenti
Test di Bonferroni Caratteristiche Semplice
Esperimenti sbilanciati (numero delle osservazioni sono differenti tra i gruppi)Esperimenti con basso numero di confronti (al massimo 6 o 7 gruppi)
Esempio 5bis
Esistono differenze significative tra i gruppi ?
Data source: Data 1 in esempio 5bis
Normality Test: Failed (P < 0,050)
Equal Variance Test: Failed (P < 0,050)
Group Name N Missing Mean Std Dev SEMRN0 4 0 0,300 0,107 0,0535RN1 4 0 0,400 0,0589 0,0294AN0 4 0 2,400 0,589 0,294AN1 4 0 2,900 0,462 0,231QN0 4 0 137,000 23,367 11,683QN1 4 0 151,000 20,116 10,058
…i test indicano che i dati non sono distribuiti normalmente ed i gruppi non mostrano varianze omogenee
1° step: verificare le assunzioni
Data source: Data 1 in esempio 5bis
Normality Test: Passed (P = 0,339)
Equal Variance Test: Passed (P = 0,441)
Group Name N Missing Mean Std Dev SEMln(col(1)) 4 0 -1,253 0,366 0,183ln(col(2)) 4 0 -0,925 0,154 0,0771ln(col(3)) 4 0 0,852 0,250 0,125ln(col(4)) 4 0 1,055 0,160 0,0801ln(col(5)) 4 0 4,909 0,174 0,0872ln(col(6)) 4 0 5,011 0,134 0,0670
….Dopo la trasformazione dei dati ( in Ln), si è ricorso nuovamente ai tests
…..i test indicano che ora i dati mostrano una distribuzione normale ed i gruppi hanno una varianza omogenea
Data source: Data 1 in esempio 5bis
Normality Test: Passed (P = 0,339)
Equal Variance Test: Passed (P = 0,441)
Group Name N Missing Mean Std Dev SEMRN0 0 -1,253 0,366 0,183RN1 0 -0,925 0,154 0,0771AN0 0 0,852 0,250 0,125AN1 0 1,055 0,160 0,0801QN0 0 4,909 0,174 0,0872QN1 0 5,011 0,134 0,0670
Source of Variation DF SS MS F P Between Groups 5 151,806 30,36 618,380 <0,001Residual 18 0,884 0,0491Total 23 152,689The differences in the mean values among the treatment groups are greater than would beexpected by chance; there is a statistically significant difference (P = <0,001).
L’analisi evidenzia che esiste almeno una media che è differentesignificativamente dalle altre
2 step: Analisi della varianza ad un solo criterio
All Pairwise Multiple Comparison Procedures (Bonferroni t-test):
Comparisons for factor:
Comparison Diff of Means t P P<0,050ln(QN1) vs. ln(RN0) 6,264 39,978 <0,001 Yesln(QN1) vs. ln(RN1) 5,936 37,883 <0,001 Yesln(QN1) vs. ln(AN0) 4,158 26,540 <0,001 Yesln(QN1) vs. ln(AN1) 3,955 25,245 <0,001 Yesln(QN1) vs. ln(QN0) 0,102 0,650 1,000 Noln(QN0) vs. ln(RN0) 6,162 39,328 <0,001 Yesln(QN0) vs. ln(RN1) 5,834 37,233 <0,001 Yesln(QN0) vs. ln(AN0) 4,056 25,890 <0,001 Yesln(QN0) vs. ln(AN1) 3,854 24,595 <0,001 Yesln(AN1) vs. ln(RN0) 2,308 14,732 <0,001 Yesln(AN1) vs. ln(RN1) 1,980 12,637 <0,001 Yesln(AN1) vs. ln(AN0) 0,203 1,294 1,000 Noln(AN0) vs. ln(RN0) 2,105 13,438 <0,001 Yesln(AN0) vs. ln(RN1) 1,777 11,343 <0,001 Yesln(RN1) vs. ln(RN0) 0,328 2,095 0,759 No
3 step: test di Bonferroni
Alcune confronti hanno fornito significatività nelle differenze tra i gruppi (Yes) mentre altri hanno fornito non significatività (No).
Test LSD di Fisher LSD: Least Significant Difference
Caratteristiche:Poco conservativo (più facile nel commettere errori di tipo I)
ed allo stesso tempo più potente (maggiore capacità nell’individuare delle differenze)
Produce elevati e non trascurabili errori quando si testano un numero elevato di confronti
Test di Tukey
CaratteristicheMolto conservativo
Novità: nuova variabile denominata Q (intervallo di variazione studentizzato) che ha lo scopo di aumentare il
livello di protezione
Test SNK
CaratteristicheÈ un’estensione del Tukey, dal quale si differenzia per il Q che è dinamico
Test di Sheffé
CaratteristicheTest molto versatile: permette il confronto tra medie semplici e
complesse (determinate da due o più gruppi)Meno potente
Test di Dunnett
CaratteristichePermette il confronto delle medie dei singoli esperimenti con un
testimone (controllo)Molto potente (perché effettua un numero minore di confronti)
Test di Duncan
5.4 Analisi della varianza a due criteri di classificazione (ANOVA II)
ANOVA ad un criterio: schema semplice e impostazione troppo semplice (la variabilità presente nei gruppi è determinata dai differenti livelli o dalle varie modalità del solo fattore in osservazione)
Due fattori di variabilità
1. Analizzare separatamente quale sia il contributo del fattore principale e quale quello del secondo fattore;
2. Eliminare l’effetto del secondo fattore sulla varianza d’errore, quando l’interesse fosse indirizzato solo verso il primo ed il secondo fosse considerato esclusivamente come un
elemento di forte perturbazione (ridurre sensibilmente la varianza d’errore);
Trattamenti: diverse modalità del primo fattore (il più importante)Blocchi: diverse modalità del secondo fattore
Es: Livelli di Inquinamento in aree diverse (primo fattore) ed ore differenti (secondo fattore)
Analisi a blocchi randomizzati: gli individui dapprima si suddividono in gruppi omogenei (blocchi) per
il secondo fattore; poi, gli individui di ogni blocco devono essere attribuiti in modo casuale ai trattamenti.
Tabella a doppia entrata
Il caso più semplice è quello di una sola
osservazione ad ogniintersezione tra riga (blocco) e colonna
(trattamento).
L'analisi della varianza a due criteri di classificazione con una sola osservazione per casella
permette di verificare, in modo simultaneo ed indipendente, la significatività delle differenze tra le medie dei trattamenti (fattore A) e tra le medie dei blocchi
(fattore B).
ESEMPIO 7. Si vuole verificare se esiste una differenza significativa nella quantità di piombo in
sospensione nell'aria di 5 zone di una città (A, B, C, D, E). Poiché si suppone che esista una forte variabilità determinata dall’ora di campionamento,
è stata fatta una rilevazione simultanea in ogni zona, con ripetizioni a distanza di 6 ore (alle ore 6, 12, 18 e 24), per un totale di 4 campioni per zona.
Esiste una differenza significativa nella presenza media di polveri di piombo in sospensione nell’aria delle 5 zone?
Le differenze tra le ore sono significative?
Data source: Data in esempio 7
Normality Test: Passed (P = 0,409)
Equal Variance Test: Passed (P = 1,000)
Source of Variation DF SS MS F P
Zone (Trattamenti) 4 128,500 32,125 13,432 <0,001
Ore (blocchi) 3 525,800 175,267 73,282 <0,001
Errore 12 28,700 2,392
Total 19 683,000 35,947
Risposta
Con probabilità α inferiore a 0.01 si rifiuta l’ipotesi nulla, sia per le medie delle zone
che per le medie delle ore.
La differenza tra ore risulta statisticamente più significativa di quella tra zone.
5.5 Analisi della varianza a tre o più criteri di classificazione (ANOVA III)
I concetti, le finalità ed i metodi dell’analisi della varianza a due criteri possono
essere facilmente estesi a tre o più criteri di classificazione
ESEMPIO 8. Si intende verificare se
- da parte di 4 essenze (medica, plantago, trifoglio, tarassaco),- cresciute in 2 località ad alto inquinamento (T1 e T2) più un controllo a livelli
normali ( C ),- esistono differenze nell’assorbimento di 4 metalli (cadmio, nichel, piombo e
zinco),- considerando anche i 5 sfalci che vengono praticati durante un anno.
Esperimento di genetica ambientale applicata a un problema d’inquinamento, in cui si
testano contemporaneamente 4 fattori o criteri.
Esistono differenze significative tra le medie di ognuno dei 4 fattori considerati?
240 misure campionarie(4 x 3 x 4 x 5)
Dalla verifica delle assunzione si osserva che la distribuzione non è normale ed esistono grandissime differenze tra le varianze. Ad esempio, risulta del tutto evidente non rispetta le condizioni di validità dell’ANOVA la variabilità presente tra metalli (lo
zinco ha valori nettamente superiore agli altri metalli).
Trasformazione di ogni dato (x) nel suo logaritmo naturale o Ln(x).
Tra i 4 fattori considerati:
-due risultano altamente significativi (metalli ed essenze) con probabilità P < 0.001,
-uno (sfalci) risulta significativo con probabilità P leggermente inferiore al 2% (P = 0.016),
-il quarto (località) non significativo, avendo una probabilità prossima al 20% (P = 0.196).
E’interessante verificare tra quali medie dei metalli, delle essenze e degli sfalci
la differenza sia significativa: occorre effettuare confronti singoli, per i quali è
appropriato il test di Tukey.
5.6 Quadrati latini
Nel disegno sperimentale a blocchi randomizzati ogni livello di un fattore deve incrociare tutti i livelli degli altri fattori
2 fattori di variazione a p livelli richiede p2 osservazioni3 fattori di variazione a p livelli richiede p3 osservazioni
All’aumentare dei fattori, si ha un rapido incremento delle misure che occorre raccogliere;
poiché ognuna ha un costo e richiede tempo, sono stati sviluppati metodi che permettono di
analizzare contemporaneamente più fattori con un numero minore di dati.
Conclusione
Il disegno sperimentale a quadrati latini permette di analizzare contemporaneamente 3 fattori a p livelli con sole p2 osservazioni: con 3 fattori a 5 livelli sono sufficienti 25 dati e non 125 dati.
Vantaggirisparmio di materiale, di denaro e di tempo
Svantaggiomaggiore rigidità dell’esperimento stesso: tutti e tre i fattori
devono avere lo stesso numero di livelli.
Per riportare in tabella i risultati di un esperimento a quadrati latini, due fattori vengono
rappresentati nelle righe e nelle colonne, mentre il terzo fattore (fattore principale), è
rappresentato nelle celle formate dall’incrocio tra riga e colonna.
Il terzo fattore è distribuito in modo casuale ma ordinato: deve comparire una volta sola sia in
ogni riga che in ogni colonna.
ESEMPIO 9. Si intende confrontare la produttività di 5 varietà (A, B, C, D, E) di sementi in rapporto al tipo di concime (1, 2, 3, 4, 5) e ad un diverso trattamento del terreno (I, II, III, IV, V). A questo scopo, si è diviso un appezzamento quadrato di terreno in 5 strisce di dimensioni uguali, nelle quali è stata fatta un'aratura di profondità differente; perpendicolarmente a
queste, sono state tracciate altre 5 strisce, che sono state concimate in modo diverso.
Dati
Esistono differenze significative tra le medie delle 5 modalità, per ognuno dei 3 fattori considerati?
In conclusione:1) risulta molto significativa la differenza tra sementi, il cui valore di F è superiore al valore
critico della probabilità 0.01;2) è significativa la differenza tra arature, con un valore di F compreso tra il valore critico
della probabilità 0.01 e quello della probabilità 0.05;3) non è assolutamente significativa, è anzi totalmente trascurabile, la differenza tra concimi
con F minore di 1.
Il disegno sperimentale a quadrati latini ha limiti che dipendono dalle sue dimensioni. Il numero di dati non può essere troppo piccolo, né troppo grande.
Il limite inferiore o minimo è imposto dai gradi di libertà della varianza d'errore.
Un quadrato latino 2 x 2 avrebbe 3 gdl per la devianza totale, che sarebbero scomposti in
- 1 per il fattore principale,
- 1 per le colonne
- 1 per le righe.
Non resterebbero gdl per la varianza d'errore.
In un quadrato latino 3 x 3 (con 8 gdl per la devianza totale e 2 gdl per la devianza di
ognuno dei 3 fattori), la varianza d'errore ha solamente 2 gdl; è possibile condurre l’analisi,
ma i gdl sono pochi per rendere significative differenze tra le medie.
Il limite minimo utile di un quadrato latino è 4x4.
Il limite massimo o superiore è determinato dalla complessità dell'esperimento; viene quindi abitualmente fissato per un quadrato latino che varia tra
10 x 10 e 12 x 12.
5.7 Analisi fattoriale ed interazione
Interazioni tra i fattori: se, come e quanto ogni livello o modalità di un fattore interagisce con quelli degli
altri fattori, esaminati in tutte le combinazioni.
1. quando si somministra un farmaco a persone di di età e di sesso diverso, può essere
di grande importanza sapere se esso ha effetti differenti, potenziati o inibiti, nei
giovani rispetto agli adulti o agli anziani, nei maschi rispetto alle femmine.
Se non esiste interazione, il farmaco mediamente migliore sarà il più adatto per tutte le
persone e potrà essere somministrato a tutti indifferentemente, in qualunque
condizione; ma se esiste una sua interazione con l’età e/o con il sesso, occorre
procedere ad una scelta appropriata mediante lo studio delle interazioni.
Ad esempio,
2. Nella ricerca ambientale, quando si confrontano i livelli d’inquinamento in varie zone di una città
tenendo in considerazione anche l’ora, è probabile che le aree ad inquinamento maggiore non siano
sempre le stesse, ma che presentino variazioni in rapporto alla fase del giorno.
Il traffico e l’attività delle fabbriche, che non hanno la stessa intensità a tutte le ore del giorno e sono
distribuiti sul territorio in modo non omogeneo, possono determinare graduatorie d’inquinamento che
si modificano nel corso della giornata. Di conseguenza, anche le politiche d’intervento potranno essere
diverse, se l’interazione tra zone ed ore è significativa quando si analizzano i livelli d’inquinamento.
Ad esempio,
L’analisi della varianza ad uno o più criteri permette di evidenziare gli effetti
principali di ogni fattore, ai suoi diversi livelli; ma esistono anche effetti più
complessi, determinati dalla loro azione congiunta che è l’interazione.
Se si analizzano due fattori (α e β), si parla di interazione di primo ordine o di
interazione a due fattori (αβ).
Se si analizzano 3 fattori si hanno
- gli effetti principali dei 3 fattori (α, β, γ),- 3 interazioni di primo ordine (αβ, αγ, βγ) causate dall’effetto dei fattori due a
due;
- una interazione di secondo ordine (αβγ), determinata dall’effetto congiunto
dei tre fattori.
Si parla di interazione nulla quando non esiste interazione e quindi il risultato
complessivo è determinato esclusivamente dalla somma dei singoli effetti principali.
5.7.1 Interazione tra due fattori a piu’ livelli
Con due fattori è possibile analizzare l’interazione solo quando si dispone di più osservazioni in ognuna delle celle poste all'incrocio tra righe e colonne.
Modello ANOVA a due fattori con replicazioni
ESEMPIO 10. Si vogliono verificare gli effetti di 3 mangimi industriali, contenenti ormoni sintetici, sulla
crescita di animali: un aspetto fondamentale della ricerca è dimostrare se nei due sessi hanno un effetto di segno opposto.
A questo scopo, i 3 tipi di mangime (a1 , a2 , a3 ) sono stati somministrati- a tre gruppi di femmine (b1 ), formati ognuno da 5 individui scelti per estrazione casuale da
un grande gruppo di femmine;- a tre gruppi di maschi (b2 ), formati ognuno da 5 individui scelti per estrazione casuale da
un grande gruppo di soli maschi.
Dopo un mese di dieta, è stato misurato l’accrescimento di ogni cavia.
Esiste interazione tra farmacie sesso?
Conclusioni1 - i tre mangimi danno medie di accrescimento significativamente differenti;
2 - i due sessi hanno accrescimenti significativamente differenti;3 - l'interazione tra i due fattori (mangime e sesso) è significativo, presumibilmente per la
presenza di ormoni sintetici.
Fisher dimostrò il vantaggio del disegno sperimentale di tipo fattoriale:
se si seguono contemporaneamente più fattori, si riesce ad evidenziare le
loro interazioni e si ha una visione più corretta della complessità delle
risposte.
Si ottengono anche i vantaggi di poter utilizzare un numero minore di
osservazioni e di ridurre sensibilmente la varianza d'errore.
5.7.2 Interazione tra tre fattori a piu’ livelli
Esempio 11ANOVA a tre fattori e repliche, di cui
- il primo (A) con 3 livelli,- il secondo (B) con 4 livelli,
- il terzo (Sesso) con 2 livelli o modalitàInoltre, tre repliche per ognuno dei 24 (3 x 4 x 2) gruppi e quindi 72 dati.
Test t di Student e con l'ANOVA a un criterio si sono confrontate le
differenze tra le medie di due o più campioni.
L’analisi della varianza a due o a più criteri di classificazione sono state prese in considerazione
contemporaneamente più fattori casuali, come i trattamenti e i blocchi, eventualmente con le loro
interazioni.
Ma la verifica dell’ipotesi è sempre stata limitata alla medesima ed unica variabile rilevata: una singola
variabile quantitativa
6. Regressione lineare
Due o più variabili quantitative, oltre alle precedenti analisi sulla media e sulla varianza per
ognuna di esse, è possibile esaminare anche il tipo e l'intensità delle relazioni che sussistono
tra loro.
Per esempio, quando per ogni individuo si misurano contemporaneamente il peso e l'altezza, è possibile
verificare
1. quale relazione matematica (con segno ed intensità) esista tra peso ed altezza nel
campione analizzato;
2. se la tendenza calcolata sia significativa (presente anche nella popolazione) oppure debba
essere ritenuta solo apparente (effetto probabile di variazioni casuali del campione);
3. predire il valore di una variabile quando l’altra è nota (ad esempio, come determinare in un
gruppo d’individui il peso di ognuno sulla base della sua altezza).
Analisi della regressioneAnalisi della correlazione
Si ricorre all'analisi della regressione quando dai dati campionari si vuole ricavare
un modello statistico che predica i valori di una variabile (Y) detta dipendente o più
raramente predetta, individuata come effetto, a partire dai valori dell'altra variabile
(X), detta indipendente o esplicativa, individuata come causa.
Si ricorre all'analisi della correlazione quando si vuole misurare l'intensità
dell'associazione tra due variabili quantitative (X1 e X2) che variano
congiuntamente, senza che tra esse esista una relazione diretta di causa-effetto.
6.1 Descrizione di una distribuzione bivariata
Quando per ciascuna unità di un campione o di una popolazione si rilevano due caratteri o variabili, si ha una distribuzione che è detta doppia o bivariata.
Rappresentazione distribuzione bivariata:
forma tabellare;
forma grafica.
Se il numero di dati è piccolo, la distribuzione doppia può essere rappresentata in una tabella che riporta in modo dettagliato tutti i valori delle due variabili, indicate
con- X e Y nel caso della regressione,
- X1 e X2 nel caso della correlazione,
Se il numero di osservazioni è grande, Una distribuzione doppia di quantità può essere rappresentata graficamente in vari modi.
-gli istogrammi, quando si riportano le frequenze dei raggruppamenti in classi;
- il diagramma di dispersione (chiamato anche scatter plot) quando le singole coppie di misure osservate sono rappresentate come punti in un piano cartesiano. Si ottiene una nuvola
di punti, che descrive in modo visivo la relazione tra le due variabili.
Esempio 12Con le misure di peso (in Kg.) e di altezza (in cm.) di 7 giovani, è possibile costruire il diagramma, detto
diagramma di dispersione.
Esso evidenzia la relazione esistente tra le due variabili, 1) sia nella sua tendenza generale,
indicata da una retta (al crescere di una variabile aumenta linearmente anche l’altra) e 2)
sia nella individuazione dei dati che se ne distaccano (come l’individuo 6 di altezza 175
cm. e 59 Kg. di peso).
La retta che viene in essa rappresentata ha lo scopo dia) descrivere la relazione complessiva tra X e Y, b) controllare i valori
anomali, che diventano più facilmente individuabili, c) predire la variabile Y, corrispondente a un valore Xi specifico.
6.2 Modelli di regressione
Il diagramma di dispersione fornisce una descrizione visiva, completa e dettagliata della relazione esistente tra due variabili. Tuttavia, la sua interpretazione resterebbe soggettiva.
La funzione matematica che può esprimere in modo oggettivo la relazione di causa-
effetto tra due variabili è chiamata equazione di regressione o funzione di
regressione della variabile Y sulla variabile X.
La forma più generale di una equazione di regressione è
dove il secondo membro è un polinomio intero di X.
Paradosso
L'approssimazione della curva teorica ai dati sperimentali è tanto migliore quanto più elevato è il
numero di termini del polinomio;
L'interpretazione dell’equazione di regressione è tanto più attendibile e generale quanto più la
curva è semplice, come quelle di primo o di secondo grado.
Regressioni di ordine superiore al primo e secondo grado sono quasi sempre legate alle variazioni casuali; sono effetti delle situazioni specifiche del campione raccolto e molto raramente esprimono
relazioni reali e permanenti.
Di conseguenza, tutti coloro che ricorrono alla statistica applicata nell’ambito della
loro disciplina utilizzano quasi esclusivamente regressioni lineari (di primo ordine) o le
regressioni curvilinee (di secondo ordine).
La regressione lineare può essere positiva o negativa:- nel primo caso, all’aumento dei valori di una variabile corrisponde un aumento anche
nell’altra;- nel secondo, all’aumento dell’una corrisponde una diminuzione dell’altra.
E’ la relazione più semplice e frequente tra due variabili quantitative.
Le regressioni curvilinee possono essere quadratiche o seguire vari altri modelli, come l’iperbole, l’esponenziale e la logaritmica.
Le relazioni cubiche (di terzo ordine) e quelle di ordine superiore rappresentano rapporti tra
due variabili che sono eccessivamente complessi per un fenomeno naturale o comunque
biologico.
6.3 La regressione lineare semplice
La relazione matematica più semplice tra due variabili è La regressione lineare semplice che è data dalla seguente equazione:
Yi = a + bXi
Yi è il valore stimato o predetto per il valore X dell'osservazione i,
Xi è il valore empirico di X della stessa osservazione i
a è l'intercetta della retta di regressione,
b è il coefficiente angolare della retta di regressione (quantità unitaria di cui varia Y al variare di una unità di X)
L’intercetta è il valore di Y, quando X è uguale a 0.
Due rette che differiscano solo per il valore di a , quindi con b uguale, sono tra
loro parallele.
Ogni punto sperimentale ha una componente di errore ei, che rappresenta lo scarto verticale
del valore osservato dalla retta (quindi tra la Y osservata e quella proiettata
perpendicolarmente sulla retta).
Poiché la retta di regressione serve per predire Y sulla base di X, l’errore commesso è
quanto la Y predetta (Y’i) si avvicina alla Y osservata (Yi).
Scarto verticale
Metodo dei minimi quadrati. La retta scelta è quella che riduce alminimo la somma dei quadrati degli scarti di ogni punto dalla sua
proiezione verticale
Come è costruita la retta che descrive la distribuzione dei punti?
ESEMPIO 13.Per sette giovani donne, indicate con un numero progressivo, è stato misurato il peso
in Kg e l'altezza in cm.
Calcolare la retta di regressione che evidenzi la relazione tra peso ed altezza.
1. Dalle 7 coppie di dati si devono calcolare le quantità
Risoluzione
2. stima del coefficiente angolare b
3. stima dell’intercetta a
4. Si ricava la retta di regressione
Per tracciare la retta è sufficiente calcolare un solo altro punto oltre quello dell’intercetta
Nel sua interpretazione biologica, il valore calcolato di b indica che in media gli individui che formano il campione aumentano di 0,796 Kg. al crescere di 1 cm in
altezza.
Il valore di a molto spesso non è importante. Serve solamente per calcolare i valori sulla retta; ha uno scopo strumentale e nessun significato biologico.
6.4 Significatività dei parametri b ed a della retta di regressione
Il semplice calcolo della retta non è sufficiente in quanto essa potrebbe indicare
-una relazione reale tra le due variabili, se la dispersione dei punti intorno alla retta è ridotta;
- una relazione casuale o non significativa, quando la dispersione dei punti intorno alla retta è approssimativamente uguale a quella intorno alla media.
Retta che esprime la relazione tra le due variabili: i punti hanno
distanze dalla retta di regressione sensibilmente minori
di quelle dalla media (Y ). Conoscendo X, il valore stimato
di Y può avvicinarsi molto a quello reale, rappresentato dal
punto.
Situazione di maggiore incertezza sulla significatività della retta
calcolata; la semplice rappresentazione grafica risulta insufficiente per decidere se all’aumento di X i valori di Y
tendano realmente a crescere.
Situazione in cui la retta calcolata non è un
miglioramento
effettivo della distribuzione dei punti rispetto alla
media. In questo caso, la retta calcolata può
essere interpretata come una variazione casuale
della media: con questi dati, la retta ha una
pendenza positiva; ma con un altro campione
estratto dalla stessa popolazione o con l’aggiunta
di un solo dato
della stessa popolazione si potrebbe stimare un
coefficiente angolare (b) negativo.
La verifica della significatività della retta calcolata è eseguita con il Test F.
Per rispondere alle domande poste, occorre valutare la significatività della retta, cioè se il coefficiente angolare b si discosta da zero in modo
significativo.
ESEMPIO 14.Con le misure di peso ed altezza rilevati su 7 giovani donne
Nell’esempio precedente abbiamo calcolato l’equazione della retta
Risultati del test F
Con probabilità P<0.01 si può sostenere che nella popolazione dalla quale è stato
estratto il campione di 7 giovani donne, esiste un relazione lineare tra le variazioni in
altezza e quelle in peso.
6.5 Intervalli di confidenza dei parametri b ed a
L’uso della retta di regressione a fini predittivi richiede che possa essere stimato l’errore di previsione A) del coefficiente angolare b e B) dell’intercetta a.
Tramite i limiti di confidenza del parametro b è possibile effettuare confronti di diverse rette di regressione.
Ad esempio, un qualsiasi valore campionario b0, se non è compreso entro i limiti di confidenza di un altro coefficiente angolare b1, è significativamente differente da
esso.
L’intervallo di confidenza o di fiducia è quell’intervallo di valori plausibili di un parametro stimato.
6.6 Intervalli di confidenza della retta
Nella ricerca si rilevano utili tre diversi casi di stima dell’intervallo di confidenza:
1. del coefficiente angolare, come nel paragrafo precedente;
2. del valore medio di Y stimato ( k Yˆ ), corrispondente ad un dato valore k di X; è
chiamato anche intervallo di confidenza della retta, essendo infatti la stima di ogni
punto sulla retta
Esempio 15. Calcolare il valore medio Y’k previsto per Xk = 180, con i dati sull’altezza delle 7 ragazze.
6.7 Il coefficiente di determinazione R2
Il coefficiente di determinazione (coefficient of determination) R2 (R square indicato in alcuni testi e in molti programmi informatici anche con R2 oppure r2) è la proporzione di variazione totale che è spiegata dalla variabile dipendente.
r2: coefficiente di determinazione semplice
R2: coefficiente di determinazione multiplo.
In altre parole, il coefficiente di determinazione è il rapporto della devianza dovuta alla regressione sulla devianza totale
Espresso a volte in percentuale, più spesso con un indice che varia da 0 a 1
PraticamenteR2 serve per misurare quanto della variabile dipendente Y sia predetto dalla variabile indipendente X e quindi per valutare l’utilità dell’equazione di regressione ai fini della
previsione dei valori della Y.
Il valore del coefficiente di determinazione è tanto più elevato quanto più la retta passa vicino ai punti, fino a raggiungere 1 quando tutti i punti sperimentali sono
collocati esattamente sulla retta.
Esempio 16Consideriamo le 7 osservazioni su peso ed altezza
Il coefficiente di determinazione è pari a
Questo risultato indica che, noto il valore dell'altezza, il valore del peso è stimato mediante la retta di regressione con una approssimazione di circa l'80 per cento (79,7%).
Il restante 0,2 (oppure 20% ) è determinato dalla variabilità dei valori sperimentali rispetto alla retta.
In questi casi, R2 è una misura che ha scopi descrittivi del campione raccolto; non è legata ad inferenze statistiche, ma a scopi pratici, specifici dell'uso della regressione
come metodo per prevedere Yi conoscendo Xi.
Il valore di R2, in varie situazioni, viene utilizzato per indicare l’errore che si commette nello
stimare Yi sulla base di generici valori Xi; quindi, viene attribuito anche un significato
inferenziale.
A questo scopo, è stato proposto un R2 corretto, chiamato R2 aggiustato (R2 adjusted)
R2 aggiustato è sempre minore di R2 sperimentale, come appunto necessario in caso di inferenza.
7. La regressione non lineare
La regressione non lineare è un metodo di stima di una curva interpolante un modello della forma
su un insieme di osservazioni (eventualmente multi-dimensionali), concernenti le variabili X ed Y
Approssimazione di un set di osservazioni tramite polinomi di diversi gradi
La determinazione dei valori dei parametri che garantiscono la migliore interpolazione dei
dati viene effettuata mediante classi di algoritmi numerici di ottimizzazione, che a partire
da valori iniziali, scelti a caso o tramite un'analisi preliminare, giungono a punti ritenuti
ottimali.
Diversi software matematici contengono librerie di ottimizzazione: Gauss, GNU Octave, Matlab, Mathematica
Esempi illustrativi con il softwareTable Curve v. 4.0
Esempio 17Valutazione delle risposte dell’accrescimento radicale all’esposizione di diverse dosi di
differenti allelopatici (Nicolò et al., 2005)
Arabidopsis allevata per 12 giorni in presenza di differenti dosi (0, 10, 50, 75, 100, 125, 250, 500 e
1000 μM) di cumarina ed umbelliferone
Valutazione dose-risposta
Concentrazione (μM)
0 200 400 600 800 1000 1200
Lung
hezz
a R
adic
i(c
m)
0
5
10
15
20
25
30
35CUMARINA
Concentrazione (μM)
0 200 400 600 800 1000 1200
Lung
hezz
a R
adic
i(c
m)
0
5
10
15
20
25
30
35
UMBELLIFERONE
L’equazione lineare non garantisce la migliore interpolazione dei dati sperimentali:l’andamento dei dati sperimentali mostra una relazione non-lineare!
La relazione matematica che “ottimamente” descrive l’andamento di un esperimento dose-risposta è una funzione log-logistica a quattro parametri.
)]/ln([ 501 EDxBeCDCy •+
−+=
C: risposta(y) alle maggiori dosi
D: risposta media del controllo
B: velocità di variazione attorno a ED50
ED50: dose che causa il 50% della risposta totale
C: asintoto inferioreD: asintoto superiore
B: pendenzaED50: punto di inflessione
Concentrazione (μM)
0 200 400 600 800 1000 1200
Lung
hezz
a R
adic
i(c
m)
0
5
10
15
20
25
30
ED50B
D
C
C: 1,61 cmD: 22 cm
B: 2,52 cm μM-1
ED50: 63 μMR2: 0,835P:0,020
….ma l’andamento della lunghezza radicale in funzione della cumarina è ottimamente descritto dall’equazione log-logistica?
Concentrazione (μM)
0 200 400 600 800 1000 1200
Lung
hezz
a R
adic
i (c
m)
0
5
10
15
20
25
30
35
A basse dosi esiste uno stimolo, definito effetto ormetico, che non è computato dall’equazione log-logistica.
Un’adeguata descrizione dell’andamento della risposta della lunghezza radicale alle dosi di cumarina è ottenuta incorporando un parametro f>0 nel modello log-logistico
f: velocità di incremento della risposta a basse dosi
)]/ln([50 50)21(1 EDxBeCD
EDfxfCDCy
⋅⋅−⋅⋅
++
⋅+−+=
Concentrazione (μM)
0 200 400 600 800 1000 1200
Lung
hezz
a R
adic
i(c
m)
0
10
20
30
40
C: 0 cmD: 18 cm
B: 2,06 cm μM-1
ED50: 465 μMf: 0,24 cm μM-1
R2: 0,884P:0,037
Esempio 18Descrizione del sistema ad alta affinità dell’assorbimento del nitrato in radici di grano
(Abenavoli et al., 2001)
Tempo (ora)0 5 10 15 20 25 30V
eloc
ità d
i ass
orbi
men
to
del N
itrat
o
( μm
oli c
m-2
ora-1
)
0,00
0,02
0,04
0,06
0,08
La velocità di assorbimento del nitrato, dapprima, aumenta all’incrementare dell’esposizione della radice al nitrato stesso e poi diminuisce secondo un’inibizione a feedback
Tempo (ora)0 5 10 15 20 25 30V
eloc
ità d
i ass
orbi
men
to
del N
itrat
o( μ
mol
i cm
-2or
a-1 )
0,00
0,02
0,04
0,06
Qual è l’equazione che meglio descrive tale andamento?
)()()( ][)( tkconst
tktk
inddec
ind decdecind eIeekk
kAy ⋅−⋅−⋅− ⋅+−⋅−⋅
=
AA = velocità alla massima induzione raggiunta dal sistema
di trasporto inducibile
IconstIconst = velocità del sistema di trasporto costitutivo
KKindind = costante della velocità di induzione
dell’assorbimento netto del nitrato
KKdecdec = costante della velocità di decadimento dell’assorbimento netto
del nitrato
Tempo (ora)Vel
ocit
à d
i ass
orb
imen
to
net
to d
el n
itra
to
)()()( ][)()( tkeBtketkekk
kAtI decdecind
inddec
ind ⋅−⋅−⋅− ⋅+−⋅−⋅
=
8. La correlazione La regressione lineare è finalizzata all'analisi della relazione causa (X) –effetto (Y) che in alcuni casi non ha senso analizzarla
1. la relazione causa-effetto non ha direzione logica o precisa:potrebbe essere
ugualmente applicata nei due sensi, da una variabile all'altra
Ad esempio, coppie di gemelli hanno strutture fisiche simili e quella di uno può essere
stimata sulla base dell'altro
2. La causa può essere individuata in un terzo fattore, che agisce simultaneamente sui primi
due, in modo diretto oppure indiretto, determinando i valori di entrambi e le loro variazioni.
Ad esempio, la quantità di polveri sospese nell’aria e la concentrazione di benzene, entrambi
dipendenti dall’intensità del traffico.
3. l’interesse può essere limitato a misurare come due serie di dati variano congiuntamente,
per poi andare alla ricerca delle eventuali cause, se la risposta fosse statisticamente
significativa.
In tutti questi casi, è corretto utilizzare la correlazione.
Esempio delle differenze tra regressione lineare e correlazione
In un’ampia area rurale, per ogni comune durante il periodo invernale è stato contato il
numero di cicogne e quello dei bambini nati. E’ dimostrato che all’aumentare del primo cresce anche
il secondo.
Ricorrere all'analisi della regressione su queste due variabili, indicando per ogni comune con X il
numero di cicogne e con Y il numero di nati, implica una relazione di causa-effetto tra presenza di
cicogne (X) e nascite di bambini (Y). Anche involontariamente si afferma che i bambini sono portati
dalle cicogne; addirittura, stimando b, si arriva ad indicare quanti bambini sono portati mediamente
da ogni cicogna.
In realtà durante i mesi invernali, nelle case in cui è presente un neonato, la temperatura viene
mantenuta più alta della norma, passando indicativamente dai 16 ai 20 gradi centigradi. Soprattutto
nei periodi più rigidi, le cicogne sono attratte dal maggior calore emesso dai camini e nidificano più
facilmente su di essi o vi si soffermano più a lungo. Con la correlazione si afferma solamente che le
due variabili cambiano in modo congiunto.
L'analisi della correlazione misura solo il grado di associazione spaziale o temporale dei due fenomeni; ma lascia liberi nella scelta della motivazione
logica, nel rapporto logico tra i due fenomeni.
La correlazione viene quantificata con il coefficiente di correlazione prodotto-momento di Pearson, r (Pearson product-moment correlation coefficient) che è una
misura dell’intensità dell’associazione tra le due variabili.
Le due variabili vengono indicate con X1 e X2, non più con X (causa) e Y
(effetto), per rendere evidente l'assenza del concetto di dipendenza funzionale.
L'indice statistico (+r oppure –r) misura il tipo (con il segno + o -) ed il grado (con il valore
assoluto) di interdipendenza tra due variabili.
Il segno indica il tipo di associazione:
- positivo quando le due variabili aumentano o diminuiscono insieme,
- negativo quando all'aumento dell'una corrisponde una diminuzione dell'altra o viceversa.
Il valore assoluto varia da 0 a 1:
- è massimo (1) quando c'è una perfetta corrispondenza lineare tra X1 e X2;
- tende a ridursi al diminuire della corrispondenza ed è zero quando essa è nulla.
Esempio 19In 18 laghi dell'Appennino Tosco-Emiliano sono state misurate la conducibilità e la
concentrazione di anioni + cationi, ottenendo le coppie di valori riportati nella tabella
Calcolare il coefficiente di correlazione tra queste due variabili in modo diretto e mediante i due coefficienti angolari
In modo diretto con la formula che utilizza le singole coppie di valori
Utilizzando i coefficienti angolari delle due regressioni, che dai calcoli risultano
E' importante ricordare che un valore assoluto basso o nullo di correlazione non deve
essere interpretato come assenza di una qualsiasi forma di relazione tra le due variabili,
ma possiamo dire che:
- è assente solo una relazione di tipo lineare,
- ma tra esse possono esistere relazioni di tipo non lineare, espresse da curve di
ordine superiore, tra le quali la più semplice e frequente è quella di secondo grado.
L'informazione contenuta in r riguarda solamente la quota espressa da una relazione
lineare.
9. Il disegno sperimentale: campionamento, programmazione dell’esperimento e potenza
Il motivo principale del ricorso all’analisi statistica per “fare inferenze” negli esperimenti
deriva dalla variabilità che è misurata mediante misure ripetute.
L'esistenza della variabilità impone l'estensione dell'analisi al numero maggiore possibile di
oggetti, poiché l'errore nella stima dei parametri è inversamente proporzionale al numero di
repliche raccolte.
Come e quanti dati raccogliere è un problema statistico fondamentale, che è risolto
con il disegno sperimentale, il campionamento e la potenza del test
1 - il campionamento, cioè come scegliere le unità dalla popolazione per formare il
campione;
2 - il disegno sperimentale, che consiste nello scegliere
- (a) i fattori sperimentali che si ritengono più importanti, i cosiddetti trattamenti,
la cui analisi rappresenta l’oggetto principale della ricerca,
- (b) i fattori sub-sperimentali che in genere rappresentano le condizioni in cui
avviene
l’esperimento e che possono interagire con quelli sperimentali,
- (c) i fattori casuali, che formeranno la varianza d’errore;
3 - la stima della potenza del test, per valutare
- (a) quanti dati è utile raccogliere,
- (b) quale è la probabilità che, con l’esperimento effettuato, il test prescelto
possa alla fine risultare statisticamente significativo.
9.1 Il campionamento
Obiettivo: come costruire un campione, in modo che esso fornisca informazioni corrette su tutta la popolazione?
Nella scelta di un campione esistono metodi probabilistici e non probabilistici.
1. Nel campionamento probabilistico, ogni unità dell’universo ha una probabilità prefissata e non nulla di essere inclusa nel campione, anche se non uguale per tutte.
Ricerca ambientale e biologica
1A) Il metodo fondamentale è il campionamento casuale semplice senza ripetizione (simplerandon sampling o random sampling without replacement), in cui ogni individuo della
popolazione ha le stesse probabilità di essere inserito nel campione. Come nel gioco del
lotto, le unità sono estratte una alla volta, mentre quelle rimanenti hanno la stessa probabilità
di essere estratte successivamente. Si utilizzano numeri casuali, che fino ad alcuni anni fa
erano presi da tabelle e ora spesso sono prodotti mediante computer, con un metodo
chiamato Monte Carlo, fondato su estrazioni caratterizzate dall’assenza di una legge di
ordinamento o di successione.
1B) Il campionamento sistematico o scelta sistematica è un altro metodo semplice: da
un elenco numerato degli individui che formano la popolazione, dopo l’estrazione
casuale della prima unità effettuata con un numero random, si selezionano gli individui
successivi a distanza costante.
Per esempio, se da una popolazione di 1000 individui se ne vogliono estrarre 50,
dall’elenco si deve estrarre una unità ogni 20, a distanza costante. Se il primo numero
estratto è stato 6, le unità campionate successive saranno 26, 46, 66, … .
1C) Nel campionamento casuale semplice con ripetizione, le n unità del campione
vengono estratte con ripetizione e con probabilità costante, uguale a 1/N.
1D) Il campionamento casuale stratificato rappresenta un raffinamento di quello
casuale; richiede la conoscenza delle caratteristiche della popolazione, per aumentare
l’efficienza del metodo di estrazione per formare il campione. La differenza
fondamentale da quello totalmente casuale è che la popolazione prima è divisa in
gruppi tra loro omogenei (detti appunto strati) e l’estrazione casuale è esercitata
all’interno di essi, in modo indipendente per ognuno, come se si trattasse di tanti
campioni casuali semplici.
1E) Il campionamento casuale a grappoli è utilizzato quando gli individui sono suddivisi, in
modo naturale oppure artificiale, in gruppi legati da vincoli di contiguità. Caratteristica
distintiva del metodo è che le unità non sono scelte in modo diretto, ma estratte in quanto
appartenenti a un certo gruppo.
Ad esempio, per rispondere alle domande di un questionario sul traffico, si immagini di
interrogare tutti gli abitanti di alcune vie, scelte in modo casuale o ragionato. Le domande
sono rivolte agli individui, ma la scelta è avvenuta sulla base della strada in cui la persona
risiede.
1F) Il campionamento a due stadi, detto anche campionamento a grappoli con sotto-
campionamento, è analogo a quello a grappoli in quanto le aree da campionare sono scelte
come i grappoli. Questo metodo si differenzia dal precedente, in quanto solo una parte delle
unità elementari contenute nei grappoli fanno parte del campione. Al primo stadio, o livello, si
estraggono i grappoli, chiamati unità primarie; al secondo, si estraggono le unità secondarie
o elementari.
1G) Il campionamento con probabilità variabili si differenzia dai precedenti, in quanto le unità sono scelte con probabilità differenti.
2. Nel campionamento non probabilistico, detto campionamento a scelta ragionata, si
prescinde dai criteri di scelta totalmente casuale delle unità campionarie.
Per indagini sulla popolazione, sono campionamenti non probabilistici anche quelli definiti di convenienza, come i campioni volontari, utilizzati soprattutto nelle indagini
sociologiche o a carattere medico ed epidemiologico,
Nei vari tipi di campionamento, seppure a
livelli differenti, compare quasi sempre il
campionamento casuale o random. Il
metodo appare semplice e intuitivo, con
l’uso di tavole dei numeri casuali.
Le tavole di numeri casuali sono costituite da una serie di numeri tra 0 e 9, disposti a caso e caratterizzati
dall’avere una distribuzione rettangolare, cioè uniforme.
I numeri possono essere scelti con un criterio qualsiasi. Ad esempio,
procedendo- dal basso verso l’alto oppure
viceversa,- da sinistra verso destra oppure
nell’altra direzione,- in modo continuo oppure a intervalli
regolari,
Esempio 18
Se da una disponibilità di 80 cavie precedentemente numerate devono esserne scelte 15
per un esperimento, è possibile partire dalla quinta riga e procedere in orizzontale
muovendosi poi verso il basso, leggendo le prime due cifre di ogni serie. Sono scelti i
primi 15 numeri di due cifre, escludendo quelli maggiori di 80 e quelli già sorteggiati.
9.2 Il disegno sperimentale I test di significatività sono sempre fondati sul rapporto tra la varianza dovuta ai fattori sperimentali e la varianza d’errore o
non controllata, cioè quella dovuta a fattori non presi in considerazione.
Per rendere minima la varianza d’errore, è necessario identificare le cause sperimentali che determinano nei dati le variazioni maggiori. A tale scopo è necessario:
1. raffinare la tecnica di misurazione,2. selezionare del materiale qualitativamente adeguato,
3. utilizzare dei campioni sufficientemente numerosi.
4. necessario eliminare l’influenza dei fattori estranei, quelli che aumenterebbero la varianza d’errore se non presi in considerazione.
opportuno disegno sperimentale.I fattori possono essere distinti in
- fattori sperimentali, che rappresentano l’oggetto specifico della ricerca e sono
chiamati trattamenti;
- fattori sub-sperimentali, che generalmente riguardano le condizioni in cui si svolge la
prova; sono chiamati blocchi;
- fattori casuali, che formano la componente accidentale.
Il campionamento ha lo scopo preciso di evitare che questi fattori non controllati esercitino un ruolo non simmetrico sui gruppi a confronto, per i fattori sperimentali.
Con il campionamento casuale o a stratificato, si vuole ottenere che, almeno
approssimativamente, gli individui di queste varie condizioni siano distribuiti in modo quasi
bilanciato in tutti i gruppi. Se invece avviene che un gruppo di pazienti al quale è stato
somministrato un farmaco specifico, a differenza degli altri gruppi sia composto in netta
prevalenza da individui dello stesso sesso, si ha un effetto non simmetrico e ignoto sul
farmaco, che altererà il risultato in modo sconosciuto.
Il risultato dell’esperimento sarà errato in modo irrimediabile. Per uno studio sarà necessario
ripeterlo, evitando l’errore commesso.
Esempio 19Si supponga di voler valutare il differente effetto di alcuni farmaci sulla riduzione del
colesterolo.Il disegno sperimentale molto semplice sarà:
1. i farmaci rappresentano il fattore sperimentale;2. la distinzione dei pazienti per classi d’età può rappresentare il fattore sub-sperimentale,
per eliminare appunto l’effetto ritenuto più importante, quello dell’età sul livello di colesterolo dei pazienti;
3. se sono presenti pazienti di sesso maschile e femminile, individui magri e grassi, cioè condizioni che sono ritenute ininfluenti (eventualmente sbagliando) sul livello di colesterolo ma
che vengono ignorati nell’analisi della varianza, sono i fattori casuali.
Nell’analisi della varianza, i diversi disegni sperimentali possono essere classificati sulla base
del numero di fattori sub-sperimentali che sono tenuti in considerazione.
Quelli più frequentemente utilizzati sono
- il disegno completamente casualizzato, quando non è tenuto in considerazione nessun
fattore subsperimentale, ma si ha solo il fattore sperimentale e i fattori casuali;
- il disegno a blocchi randomizzati, quando si ha un solo fattore subsperimentale;
- il disegno multifattoriale, tra cui anche il quadrato latino e i quadrati greco-latini, con due o
più fattori sub-sperimentali.
Tra questi ultimi rientrano anche i disegni fattoriali, nei quali l’attenzione del ricercatore è
posta soprattutto sull’analisi delle interazioni tra i due o più fattori presi in considerazione,
senza distinzioni tra fattori sperimentali e sub-sperimentali.
9.3 Le dimensioni del campione e la potenza del test
Prima informazione: dichiarare lo scopo per cui il campione di dati è raccolto.
Schematicamente, nei casi più semplici, un campione di dati serve per
1. calcolare una media,
2. confrontare due medie,
3. stimare la varianza, sempre nel caso di misure con scale a intervalli o di rapporti;
4. calcolare una proporzione o percentuale, nel caso di risposte qualitative o categoriali.
“quanti dati servono?”
Seconda informazione: il livello di precisione, con cui si vuole conoscere il parametro
indicato oppure la probabilità α di commettere un errore.
La precisione del parametro può essere espressa
1. con una misura relativa, come la percentuale dell’errore accettato rispetto alla media,
2. in valore assoluto, come la distanza massima tra la media del campione e quella reale o
della popolazione,
3. mediante l’intervallo di confidenza, che permette di derivare con facilità il valore assoluto
dello scarto massimo accettato (lo scarto tra un limite e la media).
Terza informazione: parametri che sono presi in considerati nella formula proposta e la varianza.
A) una prima stima approssimata della dimensione minima ( n ) del campione è ricavabile con la seguente formula
d = errore massimo assoluto dichiarato
s = deviazione standard, misurata su un campione precedente o con uno studio pilota
t = il valore per gdl n-1 e probabilità α (in pratica con α = 0.05 bilaterale, come
richiesto di norma nell’approssimazione di una media campionaria a quella reale, t = 2,
se il campione è di dimensioni superiori alle 20 unità).
Esempio 20.Alcune misure campionarie della concentrazione di principio attivo hanno dato una
media X = 25 e una deviazione standard s = 11 Quanti dati raccogliere, per una media campionaria che non si allontani dal valore reale di una differenza massima d = 3?
Se il fenomeno è nuovo, non è possibile avere una stima della varianza (s2) o della deviazione standard (s), mentre è facile conoscere l’intervallo di variazione, cioè la differenza tra il valore
massimo e il valore minimo. Una legge empirica molto generale permette di calcolare la varianza per mezzo di un fattore
di conversione del campo di variazione in deviazione standard, ritenuto generalmente uguale a 0,25 (1/4).
Esempio 21Solo gli esperti del settore possono conoscere la varianza o la deviazione standard
dell’altezza in ragazzi di 20 anni; ma tutti possono stimare come accettabile, nel loro gruppo di amici, un campo di variazione di 30 cm, tra il più basso (circa 160) e il più alto (circa 190
cm).
…però, il campo di variazione aumenta al crescere della numerosità del campione.
Pertanto, sono stati proposti fattori di conversione (FC) del campo di variazione in
deviazione standard, che considerano la numerosità (N) del campione:
In assenza di esperienze e di dati citati in letteratura, in varie situazioni le informazioni sulla varianza e sul valore della media devono essere ricavate da uno studio
preliminare, chiamato studio pilota.