Sei sulla pagina 1di 12

1.

Domande sulla logica falsificazionista

Cosa è la significatività
Probabilità di commettere errore di primo tipo. La significatività è un livello limite
convenzionale stabilito a priori che ci permette di stabilire se nei nostri dati esistono
differenze dovute ad una vera relazione o soltanto ad oscillazione casuale

Cosa è l’ipotesi nulla


E’ l’ipotesi di assenza di relazione e uguaglianza, assume quindi che non ci siano
differenze nei nostri dati e che se ci siano queste siano dovute all’oscillazione
casuale

Come funziona la logica falsificazionista


Scelta H1 Formulazione H0 Scelta campione raccolta dati e descrizione variabili
Test statistico Parametro-significatività p

Cosa sono gli errori alpha e beta


alpha: falsificare H0 quando questa è vera
beta: non falsificare H0 quando questa è falsa

Quali sono i limiti di significatività comunemente utilizzati e perchè si usano tali


limiti per la dimostrazione scientifica
Sono 5% e 1%, sono limiti presi per convenzione al di sotto dei quali è possibile
trovare relazioni significative non dovute all’oscillazione casuale e falsificare H0

Cosa è la potenza
E’ la probabilità di rilevare un effetto una tendenza nei dati quando questo di fatto
questo andamento esiste nella popolazione

Come sono legate potenza e significatività


All’aumentare della significatività aumenta la potenza poiché poniamo limiti sempre
meno stringenti e aumentiamo la possibilità di trovare relazioni non dovute al caso

Quali sono i limiti della logica falsificazionista?


Si falsifica H0 non sulla base di una sua bassa probabilità ma sulla base della bassa
probabilità dei nostri dati se fosse vera H0. Spesso i risultati non significativi
vengono erroneamente interpretati come dimostrazione di non differenza
2. Capitolo 2,3,4,5 Statistica descrittiva

Quali sono le diverse tipologie di variabili


Nominali categoriali (qualitative), Numeriche (quantitative)
Gaussiane, Non gaussiane

Che tipo di grafici si usano per rappresentare le frequenze


Grafici a barre/a torta

Quali indici statistici si usano per descrivere variabili qualitative o nominali Moda

Quali indici statistici si usano per descrivere variabili quantitative quando la


distribuzione è gaussiana Moda Media Mediana

Quali indici statistici si usano per descrivere variabili quantitative quando la


distribuzione non è gaussiana
Moda Media Mediana, dispersione, indici di forma

Dare una definizione e spiegare l’utilizzo di media, varianza, moda mediana,


quartili percentili, ranghi, deviazione standard (a voce)

Quali sono le definizioni di probabilità Classica, frequentista assiomatica, soggettiva

Cosa è la distribuzione di probabilità


Insieme dei valori di probabilità che competono a ciascun valore della variabile

Quali sono le caratteristiche della distribuzione gaussiana o normale


Limite della distribuzione binomiale, curva degli errori, massima entropia, media e
varianza

Quali sono le caratteristiche della distribuzione z o normale standard


Media e varianza fisse (0;1), trasformazione valore grezzo x in variabile z standard

A cosa servono i punti z


Sono numero di DS dalla media ed è una scala universale applicabile a ogni tipo di
variabile misurata

Quali sono le caratteristiche della distribuzione t


Rapporto tra variabile z e rad.quadrata variabile chiquadro divisa per i suoi gdl,
simmetrica, valori positivi e negativi
Quali sono le caratteristiche della distribuzione Chi quadro
Sommatoria di variabili z al quadrato, asimmetrica, solo positiva

Quali sono le caratteristiche della distribuzione F


Rapporto tra due variabili chi quadro divise per i rispettivi gdl, solo valori positivi

Cosa si intende per funzione di distribuzione


Probabilità che la variabile assuma un valore minore o uguale a un dato x

Cosa si intende per densità di probabilità


E’ la funzione ottenuta calcolando la probabilità che la variabile assuma un valore
compreso in un intervallo piccolissimo (di grandezza infinitesima) attorno al valore x
e dividendo questa probabilità per la larghezza dell’intervallo

Che valori può assumere la probabilità Tra 0 e 1

Se a e b sono due eventi complementari e si conosce il valore di a, quale sarà il


valore di b b= 1 – a

Quali sono gli indici per valutare se la distribuzione è gaussiana o non gaussiana?
Indici di centralità

Cosa si intende per probabilità condizionata


La probabilità che essendosi verificato a si verifichi anche b

Che valore ha la probabilità di un evento certo 1

Che valore ha la probabilità di un evento impossibile 0

Cosa valuta il teorema di Bayes


Calcolo della probabilità condizionata la quale afferma che la probabilità di A dato B
è proporzionale alla probabilità di B dato A
3. T test

Cosa è l’errore standard


È la deviazione media delle medie dei campioni alla media delle medie dei campioni

A cosa serve l’errore standard Nel t-test al calcolo del parametro t


Se devo confrontare due gruppi rispetto a una variabile gaussiana che test posso
usare il t- test per campioni indipendenti
Che differenza c’è fra t test per gruppi indipendenti e t test per dati appaiati
Indipendenti= 2 gruppi e una variabile; Correlati= 1 gruppo misurato 2 volte su una
singola variabile

Quando si applica il t test per gruppi indipendenti


Quando confrontiamo due punteggi di due gruppi separati di individui
Come deve essere la distribuzione della variabile dipendente per poter applicare il t
test Gaussiana
Cosa confronta il t test per dati appaiati
Confronta i risultati di un soggetto su una variabile in due momenti differenti, in due
condizioni

Come si ottiene il parametro t del t test per campioni indipendenti


t= media campione 1 – media campione 2
ES differenza tra medie di campioni (=Rad.quadrata di ES1+ES2)

Come si ottiene il parametro t del t test per dati appaiati


t= media delle differenze (tutte)
ES di medie campionarie

Quale è l’ipotesi nulla del t test per campioni indipendenti e per dati appaiati
Indipendenti= che non ci siano differenze tra i punteggi dei due gruppi
Appaiati= che non ci siano differenze tra le due misurazioni del soggetto
Come si calcola la significatività del t test per campioni indipendenti e per dati
appaiati? Guardando in tabella il parametro coi rispettivi gdl ( indipendenti= N – 2,
correlati= N – 1)
Che distribuzione utilizza il t test per la falsificazione di H0 distribuzione t
Quale test si usa per verificare se le varianze dei due campioni sono omogenee nel t
test Il test di Levene
Se il test di Levene è significativo come si procede nella verifica della significatività
del t test per campioni indipendenti
Si vanno a correggere i gdl andando a modificare la numerosità dei campioni

4. Test chi Quadro

A cosa serve il test del chi quadro


Serve per confrontare campioni con dati espressi in frequenza (variabili qualitative)

Quale test statistico posso utilizzare per sapere se c’è una relazione fra due variabili
qualitative test del chi quadro
Quale indice statistico si utilizza nel test del Chi quadro Moda
Quale distribuzione si utilizza per il test del Chi quadro distribuzione chi quadro

Come si calcola il parametro Chi quadro del test del Chi quadro
Chi quadro = ∑ (f.osservata – f.attesa)^2 / f.attesa

Cosa sono le tabelle o tavole di contingenza


Sono rappresentazioni grafiche in cui facciamo tutti gli incroci possibili tra le due
variabili considerate, e in qui inseriamo sia le f. osservate che le f.attese. ci sono
tante colonne quante sono le categorie di una variabile e tante colonne quante
sono le categorie dell’altra variabile

Come si calcola la significatività del test del Chi quadro


confronto in tabella risultato del parametro con Gdl= (n.righe – 1) x (n.colonne – 1)

5. Analisi della correlazione

Con che test si misura l’associazione fra due variabili quantitative


analisi della correlazione
Quali relazioni analizza l’analisi della correlazione di Pearson forza e direzione
Quali relazioni analizza l’analisi della correlazione di Spearman forza e direzione

Definizione di covarianza
1)È una misura di quanto i punteggi di una variabile aumentino con quelli dell’altra
variabile 2)Esprime quanto due misure variano in modo concorde 3)Indica quanto
due variabili condividono in termini di varianza
Cosa misura r nell’analisi della correlazione di Pearson
Misura coefficiente di correlazione di valori che sarebbe un indice numerico che
esprime gli aspetti principali del grafico di dispersione (forza e direzione)

Cosa misura Rho nell’analisi della correlazione di Spearman


Misura coefficiente di correlazione di ranghi che sarebbe un indice numerico che
esprime gli aspetti principali del grafico di dispersione (forza e direzione)

Come si rappresenta graficamente la relazione fra due variabili quantitative


Scatterplot (grafico di dispersione) e retta di regressione

Quali sono le procedure per il calcolo di r


cov÷ rad.quadrata var(x) x rad.quadrata var(y)

Quali sono le procedure per il calcolo di Rho


Stesse procedure ma prima trasformo punteggi in ranghi

Come si fa a valutare la significatività del coefficiente di correlazione


Confronti il coefficiente ottenuto con la numerosità campionaria

6. Test dei ranghi


Quando si applicano i test dei ranghi e perché
Si applicano quando abbiamo variabili non gaussiane e perché non potendo
applicare i parametri di media e varianza, sebbene ogni campione sia caratterizzato
da innumerevoli e peculiari aspetti, per ogni set di valori i ranghi sono sempre gli
stessi. Trasformiamo valori di una variabile non gaussiana in gaussiana su cui
riusciamo a calcolare varianza e media.

Se si devono confrontare due gruppi rispetto a una variabile quantitativa a


distribuzione non gaussiana cosa si può applicare test U di Mann-Whitney

Se si devono confrontare due misure ripetute rispetto a una variabile quantitativa a


distribuzione non gaussiana cosa si può applicare sia il test dei segni che quello di
Wilcoxon

Cosa sono i ranghi


È il n di ordine attribuito ai valori della variabile ordinati in ordine crescente
È l’ordine crescente dei valori della variabile (possono esserci ranghi condivisi)

In che modo viene trasformata la variabile dipendente nei test dei ranghi
I punteggi vengono ordinati in ordine crescente e poi gli viene attribuito un rango
Che differenza c’è fra test dei ranghi e t-test
Uno è un parametrico e uno non parametrico, il t-test lavora su medie e i test dei
ranghi sui ranghi

Che differenza c’è fra test dei ranghi di Wilcoxon e test dei ranghi di Mann Whitney
Wilcoxon è il corrispettivo di t-test per dati appaiati e U di Mann-Whitney è il
corrispettivo di t-test per dati indipendenti

Cosa analizza il test dei ranghi di Wilcoxon


Calcola i ranghi
Associa il segno delle differenze ai ranghi
calcola le somme dei ranghi + e - , prende in considerazione il valore più piccolo che
diventa il valore T, confrontato in tabella con la numerosità degli accoppiamenti

Cosa analizza il test dei ranghi di Mann Whitney


Calcola indistintamente i ranghi dei due gruppi
Sommatoria di ranghi del gruppo più numeroso (R), confrontato in tabella con
l’incrocio della numerosità campionaria per il gruppo più numeroso e meno
numeroso

7. Analisi della varianza


Quando si applica l’analisi della varianza
Si applica per effettuare confronti tra varianze tra più di due gruppi. Si fa la
valutazione del rapporto tra varianze di due serie di punteggi.

Quando si applica l’analisi della varianza per gruppi indipendenti


Si applica a una via quando si vuole vedere se tra due o più gruppi non correlati ci
siano delle differenze significative tra le varianze misurate su una variabile
indipendente.
(A una via cerchiamo se le varianze dei campioni sono significativamente differenti
per una sola variabile indipendente
A due vie vogliamo misurare l’effetto combinato delle due variabili indipendenti sui
punteggi della variabile dipendente)

Quando si applica l’analisi della varianza per misure ripetute


Quando si vuole confrontare le medie di campioni appaiati in più condizioni.
Quale è l’ipotesi nulla dell’analisi della varianza per gruppi indipendenti
Quando la varianza stimata dei valori veri è simile e non statisticamente significativa
rispetto alla varianza della componente errore.
Quindi la differenza osservata tra i due gruppi è dovuta all’errore casuale e non alla
reale differenza prodotta dalla variabile indipendente

Quale è l’ipotesi nulla dell’analisi della varianza per misure ripetute


Quando la varianza stimata dei valori veri è simile e non statisticamente significativa
rispetto alla varianza della componente residua degli errori.
Quindi la differenza tra le due condizioni è dovuta all’errore casuale.

Quanti effetti misura l’analisi della varianza a due vie per gruppi indipendenti
Effetti principali
Effetto interazione

Cosa è l’effetto interazione


È l’effetto combinato, quindi moltiplicativo delle due variabili indipendenti (effetti
principali) su quella dipendente

Come si misura l’effetto interazione


Si misura facendo lo scarto tra dati originali e effetti principali. Facendo la
sommatoria degli scarti alla seconda/gdl interazione trovo la varianza
dell’interazione

Che parametro si utilizza nell’analisi della varianza Parametro F

Cosa si confronta con il parametro F nell’analisi della varianza per misure ripetute
Si confronta la varianza stimata fra condizioni con quella degli errori residui

Cosa si confronta con il parametro F nell’analisi della varianza per gruppi


indipendenti
Si confronta la varianza stimata dei valori veri/ fra gruppi con quella della
componente errore

Quando si applicano i test posthoc/ contrasti ortogonali


Si applicano quando abbiamo dei confronti multipli, ovvero quando dobbiamo
confrontare più di due medie e capire dove siano le differenze.
Che differenza c’è fra test posthoc e contrasti ortogonali
I post hoc sono confronti effettuati a posteriori, dopo aver visto l’andamento dei
dati, mentre i contrasti ortogonali sono confronti pianificati da effettuare prima di
vedere l’andamento dei dati ovvero a priori e possono essere considerate come
sotto-ipotesi delle ipotesi. Tra i post hoc troviamo il metodo Bonferroni per cui si
aggiusta la significatività in base ai confronti e il test di Scheffè che calcola il
parametro F confrontando due medie alla volta

Che distribuzione utilizza l’analisi della varianza per falsificare H0 Distribuzione F

Come si misura la varianza errore nell’analisi della varianza per gruppi


indipendenti/misure ripetute
Negli indipendenti sottrai al valore vero il punteggio originale (media del gruppo)
(Varianza = sommatoria (punteggi errore - media punteggi errore) ^2 /gdl= n.
punteggi - n. gruppi)
Nelle misure ripetute sottrai il valore vero al punteggio originale e poi le differenze
individuali(sottraendo ad ogni nuovo punteggio la media della relativa riga)
(Varianza = sommatoria (punteggi errore residui - media punteggi errore residui)^2 / Gdl
=n. colonne punteggi errore – 1)x (n. righe punteggi errore -1)

Come si procede per la falsificazione di H0 nell’analisi della varianza


A una via per dati indipendenti: Calcolo parametro F e confronto con gdl sia dei
valori veri (n.colonne – 1) che con gdl della componente errore (N – n.colonne)

Riassuntino ANOVA
A UNA VIA:
PER DATI INDIPENDENTI una variabile indipendente con più livelli di trattamento
PER DATI CORRELATI una variabile indipendente con più livelli di trattamento
A DUE VIE:
PER DATI INDIPENDENTI due variabili indipendenti con due livelli

CONFRONTI MULTIPLI due variabili indipendenti con tre o più livelli di trattamento

8. Analisi della regressione


Quando si applica l’analisi della regressione
Tra due variabili quantitative gaussiane, si usa per fare una previsione
dell’andamento di una variabile criterio y (dipendente) sulla base dell’andamento
della variabile predittrice x (indipendente)

Quale è l’ipotesi nulla dell’analisi della regressione


H0: b=0 ipotizza assenza di relazione, per cui la retta è parallela all’asse x
Confronto del parametro t (t= b/ES(b)) con valore di t di H0
Ipotizza varianza F=1 data dal parametro F= varianza modello÷varianza residui
(confronto di parametri F)

Cosa indicano r e R^2 nell’analisi della regressione


Sono usati per la verifica di bontà di modello, e indicano rispettivamente la forza
della relazione e la percentuale di varianza spiegata da modello

Se devo analizzare la relazione fra due variabili quantitative a distribuzione


gaussiana che test utilizzo analisi della regressione o Pearson

Che differenza c’è fra analisi della regressione e analisi della correlazione
La correlazione utilizza valori standardizzati e non fornisce la pendenza(non calcola
parametro b) mentre la regressione mantiene i dati originali e fornisce la pendenza.
Inoltre hanno scopi differenti.

Che parametro si utilizza nell’analisi della regressione per falsificare H0 parametro F

Cosa si confronta con il parametro F nell’analisi della regressione


Si confronta con il limite fissato di F nell’ipotesi nulla (1), se F è maggiore di uno
allora si falsifica H0 se uguale o minore non si falsifica H0

Cosa indicano i parametri a e b nell’analisi della regressione


a= intercetta, punto in cui la retta incontra l’asse delle y quando x=0
b=pendenza, l’andamento della retta che rappresenta meglio i dati del grafico di
dispersione, è l’incremento sull’asse verticale (n.unità prodotte) prodotto
dall’incremento di 1 unità sull’asse orizzontale (x)

Che distribuzione utilizza l’analisi della regressione per falsificare H0 Distribuzione F


Cosa indicano x e y nell’analisi della regressione
rispettivamente variabile predittrice e variabile criterio (predetta)

Come si misura la varianza errore nell’analisi della regressione


Sommatoria degli scarti al quadrato fra punteggio ottenuto y e il corrispondente
valore y predetto dal modello/ gle

Come si procede per la falsificazione di H0 nell’analisi della regressione


Stima dei parametri a e b
Valutazione bontà modello (r e R^2)
Calcolo significatività b+- ES e trovo l’intervallo di confidenza e vedo se il valore b
cade lì dentro o meno, se cade nel 5% ip.nulla falsificata
Calcolo parametro t da confrontare con valore t di H0
Calcolo parametro F e confronto con parametro F di H0

Relazione fra test di significatività e intervallo di confidenza


Sono complementari e si basano sulla stessa logica inferenziale
Es.intervallo 95%- signficatività 5% o intervallo 99%- significatività1%

9. Effect size
Cosa misura la forza dell’effetto
Fa riferimento a quanto è grande l’andamento rilevato in uno studio
Misura la dimensione della relazione (coefficiente di correlazione standardizzato)
Misura la differenza tra medie di gruppi differenti (d di Cohen da standardizzare e
poi confrontare) d di Cohen= (media a – media b)÷ DS gruppi accorpati

Quale è la differenza fra forza dell’effetto e significatività


La significatività ci dice se i dati sono generalizzabili alla popolazione (che non siano
semplici artefatti di quel particolare campione) ciò non ha nulla a che fare con il
fatto che ci siano o meno tendenze notevoli sulle relazioni all’interno dei dati

Fai un esempio di forza dell’effetto per uno dei test affrontati nel corso
Ad esempio il d di Cohen nel t-test per gruppi indipendenti

10. Analisi della Potenza


Cosa misura la potenza del test
Misura la probabilità che abbiamo di trovare un’effetto nei nostri dati quando questo
effetto realmente esiste nella popolazione
1-beta
Come e quando si controlla la potenza del test
si controlla a priori e confronto distribuzione teorica H0 con quella sperimentale
ottenuta H1: più discostano più la potenza è alta perché in questo modo l’area
dell’errore beta diminuisce e quella del livello di significatività alpha aumenta.

Come sono legate fra loro potenza del test, significatività, errore di I e II tipo
Potenza aumenta all’aumentare della significatività
La potenza dipende in parte dal livello di significatività scelto per lo studio
È il complementare di beta