Sei sulla pagina 1di 432

GHEORGHE PERŢEA

STATISTICA PSIHOLOGICĂ ŞI PRELUCRAREA INFORMATIZATĂ:


INTRODUCERE ÎN APLICAŢIILE SPSS (PASW)

Editura Didactică şi Pedagogică


Bucureşti
2009

1
Cuprins
Cuvânt înainte………………………………………………………….……………………13
Capitolul 1. Introducere......................................................................................14

1.1. Definiţia statisticii……………………………………………………………………………………….15


1.2. Statistica, instrument al metodei ştiinţifice în psihologie…………………………………15
1.3. Scurt istoric al statisticii în psihologie…………………………………………………………..19
1.4. Utilitatea statisticii în activitatea curentă a psihologilor…………………………………. 22
1.5. Dificultăţi şi riscuri în însuşirea metodelor statistice………………………………………..24
Capitolul 2. Concepte fundamentale..............................................................26

2.1. Noţiunea de variabilă psihologică………………………………………………………………...27


2.1.1. Variabile latente/variabile observate………………………………………………………….27
2.1.2. Variabile dependente/variabile independente……………………………………………..28
2.1.3. Variabile continue/variabile discrete…………………………………………………………..29
2.2. Măsurarea în psihologie………………………………………………………………………………30
2.2.1. Ce este măsurarea?..................................................................................30
2.2.2. De ce este important să analizăm procesul de măsurare?.............................31
2.2.3. Niveluri (scale) de măsurare……………………………………………………………………..31
2.2.3.1. Scala nominală……………………………………………………………………………………..32
2.2.3.2. Scala ordinală……………………………………………………………………………………….33
2.2.3.3. Scala de interval……………………………………………………………………………………33
2.2.3.4. Scala de raport……………………………………………………………………………………..35
2.2.4. Variabile categoriale…………………………………………………………………………………35
2.2.5. Scale de măsurare, exemple comentate…………………………………………………….36
2.2.6. Erori de măsurare……………………………………………………………………………………39
2.2.6.1. Erori aleatorii……………………………………………………………………………………….40
2.2.6.2 Erori sistematice……………………………………………………………………………………41
2.3. Statistica parametrică şi statistica neparametrică…………………………………………..42
2.4. Scale de măsurare şi variabile……………………………………………………………………..44
2.5. Studii experimentale/studii corelaţionale (de covarianţă)……………………………….45

2
2.6. Populaţie/eşantion……………………………………………………………………………………..46
2.6.1. Reprezentativitatea eşantionului……………………………………………………………….48
2.6.2. Eşantionarea…………………………………………………………………………………………..49
2.7. Statistica descriptivă/statistica inferenţială……………………………………………………50
2.8. Rezumat……………………………………………………………………………………………………52
2.9. Exerciţii…………………………………………………………………………………………………….53
Capitolul 3. Statistici descriptive....................................................................55

3.1. Analiza frecvenţelor……………………………………………………………………………………56


3.1.1. Analiza frecvenţelor simple……………………………………………………………………….56
3.1.2. Analiza frecvenţelor grupate……………………………………………………………………..59
3.1.2.1.Limite ”aparente” şi limite ”reale” ale intervalelor de clasă…………………………62
3.2. Reprezentări grafice……………………………………………………………………………………62
3.2.1. Graficul de tip bară………………………………………………………………………………….64
3.2.2. Histograma…………………………………………………………………………………………….65
3.2.3. Poligonul de frecvenţa……………………………………………………………………………..65
3.2.4. Graficul frecvenţei cumulate……………………………………………………………………..66
3.2.5. Graficul circular……………………………………………………………………………………….66
3.2.6. Graficul stem-and-leaf(stemplot)……………………………………………………………..67
3.3. Concluzii……………………………………………………………………………………………………69
3.4. Rezumat……………………………………………………………………………………………………70
3.5. Exerciţii…………………………………………………………………………………………………….70
3.6. Indicatori sintetici ai distribuţiilor statistice…………………………………………………..71
3.6.1. Indicatorii tendinţei centrale…………………………………………………………………….72
3.6.1.1. Modul(Mo)…………………………………………………………………………………………..72
3.6.1.2. Mediana(Me)………………………………………………………………………………………..72
3.6.1.3. Media aritmetică(m)………………………………………………………………………………72
3.6.2. Valori nedeterminate şi clase deschise……………………………………………………….74
3.6.3. Avantajele şi dezavantajele indicatorilor tendinţei centrale…………………………..74
3.6.4. Valori extreme (excesive) ale distribuţiei……………………………………………………75
3.6.4.1.Tratarea valorilor extreme………………………………………………………………………77
3
3.6.5. Indicatori sintetici ai împrăştierii ………………………………………………………………78
3.6.5.1. Intervalul sau amplitudinea absolută( R de la Range)………………………………….80
3.6.5.2. Amplitudinea relativă……………………………………………………………………………80
3.6.5.3. Abaterea quartilă(cvartilă, intercvartilă- RQ)…………………………………………….81
3.6.5.4. Abaterea semiintercvartilă( RsQ)……………………………………………………………..81
3.6.5.5. Abaterea medie(deviaţia medie-d)…………………………………………………………82
3.6.5.6. Dispersia(varianţa, abaterea medie pătratică- s2)…………………………………….84
3.6.5.7. Abaterea standard(s)…………………………………………………………………………..84
3.6.5.8. Corecţia indicatorilor împrăştierii calculaţi pentru eşantioane……………………85
3.6.5.9. Proprietăţile abaterii standard………………………………………………………………..86
3.6.5.10. Coeficientul de variaţie………………………………………………………………………..87
3.6.5.11. Alegerea indicatorilor împrăştierii(dispersiei)…………………………………………88
3.6.6. Indicatori ai formei distribuţiei………………………………………………………………….88
3.6.7. Rezumat…………………………………………………………………………………………………91
3.6.8. Exerciţii…………………………………………………………………………………………………..91
Capitolul 4. Pachetul statistic SPSS/PASW....................................................93

4.1. Prezentarea generală a pachetului SPSS/PASW……………………………………………..93


4.2. Descrierea interfeţei PASW/SPSS………………………………………………………………….94
4.2.1. Ferestre………………………………………………………………………………………………….94
4.2.2 Meniuri…………………………………………………………………………………………………….99
4.2.2.1. Meniuri comune tuturor ferestrelor………………………………………………………..99
4.2.2.2. Meniuri specifice ferestrei Data Editor……………………………………………………101
4.2.3. Casete de dialog…………………………………………………………………………………….103
4.3. Rezumat………………………………………………………………………………………………….105
Capitolul 5. Statistici descriptive cu SPSS/PASW.........................................106

5.1. Descrierea variabilelor


categoriale…………………………………………………………………………………..106

5.2. Descrierea variabilelor continue………………………………………………………………….108

4
5.2.1. Procedura Frecvencies……………………………………………………………………………108
5.2.2. Procedura Descriptives……………………………………………………………………………..112
5.2.3. Procedura Explore …………………………………………………………………………………113
5.2.4. Alte tipuri de descrieri grafice ale variabilelor……………………………………………115
5.3. Rezumat………………………………………………………………………………………………….116
Capitolul 6. Statistica inferenţială, noţiuni de bază......................................117

6.1. Scorurile z şi curba normală………………………………………………………………………117


6.1.1. Scoruri standard (z)……………………………………………………………………………….117
6.1.1. Calcularea valorii atunci când cunoaştem parametrii scorului z…………………..119
6.1.2. Proprietăţile scorurilor z………………………………………………………………………….120
6.1.3. Alte tipuri de scoruri standardizate(etalonarea rezultatelor la testele psihologice
pe baza mediei şi abaterii standard)…………………………………………………………………….121
6.2. Curba normală (Gauss)……………………………………………………………………………..123
6.2.1. Curba normală standardizată………………………………………………………………….124
6.2.2. Aria de sub curba normală văzută ca probabilitate…………………………………….128
6.2.3. Distribuţii reale şi distribuţii normale z……………………………………………………..129
6.2.4. Etalonarea rezultatelor la testele psihologice pe baza diviziunilor procentuale ale
curbei distribuţiei normale(clasele normalizate)…………………………………………………….129
6.2.5. Rezumat………………………………………………………………………………………………….131
6.2.6. Exerciţii………………………………………………………………………………………………..132
6.3.Distribuţia mediei de eşantionare……………………………………………………………………133
6.3.1.Împrăştierea distribuţiei de eşantionare(eroarea standard a mediei)……………134
6.3.2. Teorema limitei centrale…………………………………………………………………………136
6.3.3. Scoruri standardizate pentru eşantioane(grupuri)……………………………………..139
6.4. Ipotezele metodei ştiinţifice………………………………………………………………………141
6.4.1. Ipoteza cercetării…………………………………………………………………………………..141
6.4.2 Ipoteza statistică (de nul)………………………………………………………………………..142
6.4.3. Distribuţia ipotezei de nul……………………………………………………………………….143
6.5. Testul z pentru un singur eşantion……………………………………………………………..144
6.6. Decizia statistică……………………………………………………………………………………….145
5
6.6.1.Decizii statistice unilaterale şi bilaterale……………………………………………………148
6.7. Estimarea intervalului de încredere pentru media populaţiei………………………….151
6.8. Testul t (Student) pentru un singur eşantion……………………………………………….153
6.9. Publicarea rezultatelor testului z sau t…………………………………………………………155
6.10. Un exemplu de studiu bazat pe testul z(t)…………………………………………………156
6.11. Rezumat……………………………………………………………………………………………….158
6.12. Exerciţii…………………………………………………………………………………………………159
6.13. Erori statistice, puterea testului şi mărimea efectului………………………………….159
6.13.1 Erori statistice………………………………………………………………………………………161
6.13.1.1. Eroarea de tip I………………………………………………………………………………..162
6.13.1.2. Eroarea de tip II………………………………………………………………………………….163
6.13.1.3. Eroarea de tip III………………………………………………………………………………..165
6.14. Puterea testului……………………………………………………………………………………..167
6.14.1. Factori care contribuie la creşterea puterii testelor statistice…………………….168
6.15. Mărimea efectului……………………………………………………………………………………171
6.15.1.Calcularea mărimii efectului pentru testul z(t) pentru un singur eşantion…..173
6.15.2. Relaţia dintre mărimea efectului şi puterea testului…................................175
6.16. Interpretarea rezultatului unui test statistic……………………………………………….176
6.17. Rezumat………………………………………………………………………………………………..177
6.18. Exerciţii………………………………………………………………………………………………….178
Capitolul 7. Teste statistice parametrice pentru date cantitative................179

7.1. Testul t pentru eşantioane independente…………………………………………………….179


7.1.1. Distribuţia ipotezei de nul pentru diferenţa dintre medii independente………..179
7.1.2. Procedura statistică pentru testarea semnificaţiei diferenţei dintre mediile a
două eşantioane…………………………………………………………………………………………………181
7.1.3. Testul t pentru dispersii diferite……………………………………………………………..185
7.1.3.1. Exemplu de calcul……………………………………………………………………………….186
7.1.4. Mărimea efectului………………………………………………………………………………….189
7.1.5. Limitele de încredere ale diferenţei dintre medii……………………………………….190
7.1.6. Interpretarea rezultatului la testul t pentru eşantioane independente…………192
6
7.1.7. Publicarea rezultatului…………………………………………………………………………….192
7.1.8. Condiţiile în care putem calcula testul t pentru eşantioane independente…….193
7.1.9. Când se utilizează testul t pentru eşantioane independente?........................193
7.1.10. Exerciţii……………………………………………………………………………………………….194
7.2. Testarea diferenţei dintre mai mult de două medii independente: analiza de
varianţă (ANOVA)……………………………………………………………………………………………194
7.2.1. Cadrul conceptual pentru analiza de varianţă unifactorială………………………..197
7.2.2. Fundamentarea procedurii de calcul ANOVA…………………………………………….200
7.2.3. Interpretarea raportului F(Fisher)…………………………………………………………..202
7.2.3.1. Distribuţia Fisher…………………………………………………………………………………203
7.2.3.2. Calcularea gradelor de libertate……………………………………………………………204
7.2.3.3. Exemplu de calcul……………………………………………………………………………….204
7.2.4. Mărimea efectului pentru testul F…………………………………………………………….207
7.2.5. Analiza „post-hoc” …………………………………………………………………………………210
7.2.6. Publicarea rezultatului testului F (ANOVA)……………………………………………….211
7.2.8. Avantajele ANOVA …………………………………………………………………………………212
7.2.9. Condiţii pentru utilizarea testului ANOVA…………………………………………………213
7.2.10. Rezumat…………………………………………………………………………………………….213
7.2.11. Exerciţii………………………………………………………………………………………………..214
7.3. Testul t pentru diferenţa dintre mediile a două eşantioane dependente………..215
7.3.1. Fundamentare teoretică…………………………………………………………………………218
7.3.2. Exemplu analitic de calcul……………………………………………………………………..218
7.3.3. Mărimea efectului………………………………………………………………………………….221
7.3.4. Limitele de încredere pentru diferenţa dintre medii……………………………………..222
7.3.5. Publicarea rezultatului……………………………………………………………………………223
7.3.6. Rezumat……………………………………………………………………………………………..224
7.3.7. Exerciţii………………………………………………………………………………………………..224
7.4. Coeficientul de corelaţie Pearson……………………………………………………………….226
7.4.1. Corelaţia liniară…………………………………………………………………………………….227
7.4.2. Reprezentarea grafică a corelaţiei………………………………………………………….229

7
7.4.3. Calcularea coeficientului de corelaţie liniară Pearson………………………………..230
7.4.4. Criteriile deciziei statistice……………………………………………………………………..231
7.4.5. Exemplu de calcul…………………………………………………………………………………232
7.4.6. Corelaţie şi cauzalitate……………………………………………………………………………..234
7.4.7. Natura liniară a corelaţiei Pearson…………………………………………………………….234
7.4.8. Mărimea efectului coeficientului de corelaţie………………………………………………237
7.4.9. Coeficientul de determinare……………………………………………………………………..239
7.4.10. Calcularea limitelor de încredere pentru coeficientul de corelaţie r……………..240
7.4.11. Semnificaţia diferenţei dintre doi coeficienţi de corelaţie………………………….244
7.4.12. Condiţii pentru calcularea coeficientului de corelaţie Pearson……………………244
7.4.13. Utilizarea coeficientul de corelaţie………………………………………………………….245
7.4.14. Publicarea rezultatului corelaţiei…………………………………………………………….245
7.4.15. Rezumat……………………………………………………………………………………………..246
7.4.16. Exerciţii……………………………………………………………………………………………….247
Capitolul 8. Teste statistice parametrice cu SPSS........................................248

8.1.Testul z (t) pentru media unui singur eşantion……………………………………………..248


8.2.Testul t pentru eşantioane independente……………………………………………………..249
8.3.Testul t pentru diferenţa dintre mediile a două eşantioane dependente………….251
8.4. Analiza de varianţă unifactorială…………………………………………………………………254
8.5.Coeficientul de corelaţie liniară Pearson (r)…………………………………………………..262
8.6. Exerciţii……………………………………………………………………………………………………265
Capitolul 9. Teste neparametrice pentru date nominale..............................266

9.1. Distribuţia binomială…………………………………………………………………………………269


9.1.1. Teste z pentru proporţii………………………………………………………………………….275
9.1.2.Testul z pentru proporţia unui eşantion în raport cu populaţia…………………….275
9.1.3.Testul z pentru diferenţa dintre proporţiile a două eşantioane
independente…………………………………………………………………………………………………….276
9.1.4. Testul semnului………………………………………………………………………………………278

8
9.1.5.Rezumat………………………………………………………………………………………………..280
9.1.6. Exerciţii………………………………………………………………………………………………….282
9.2. Distribuţia multinomială…………………………………………………………………………….282
9.2.1. Tabelul de corespondenţă (contingenţă) pentru date nominale………………….285
9.2.2. Fundamentarea testului statistic……………………………………………………………….286
9.2.3. Chi-pătrat pentru gradul de corespondenţă (Goodness of Fit)………………………288
9.2.4. Chi-pătrat - testul asocierii (independence chi-square)……………………………….291
9.2.5. Condiţii pentru aplicarea testului χ2………………………………………………………….293
9.2.6. Utilizarea testului chi-pătrat al asocierii…………………………………………………….294
9.2.7. Mărimea efectului pentru testul chi pătrat al asocierii………………………………..295
9.2.8. Raportarea rezultatului……………………………………………………………………………297
9.2.9. Testul exact Fisher………………………………………………………………………………….297
9.2.10. Rezumat………………………………………………………………………………………………298
9.2.11. Exerciţii……………………………………………………………………………………………….299
9.2.12. Întrebări pentru o evaluare parţială……………………………………………………….299
Capitolul 10 .Teste neparametrice nominale cu SPSS/PASW………………….301

10.1 Testul z al proporţiei pentru un singur eşantion ………………………………………….301


10.2.Testul z al diferenţei dintre două proporţii independente……………………………..303
10.3. Testul semnului………………………………………………………………………………………305
10.4. Testul chi-pătrat al asocierii (independenţei)……………………………………………..307
10.5. Testul chi-pătrat pentru gradul de corespondenţă (goodness of fit) …………….310
Capitolul 11. Teste statistice pentru date ordinale.......................................312

11.1. Testul Mann-Whitney (U) pentru două eşantioane independente…………………312


11.2. Exerciţii………………………………………………………………………………………………….318
11.3. Testul Kruskal-Wallis pentru mai mult de două eşantioane independente…….319
11.4. Exerciţii…………………………………………………………………………………………………321
11.5. Testul Wilcoxon pentru două eşantioane perechi………………………………………322
11.6. Exerciţii……………………………………………………………………………………………….325
11.7. Testul Friedman pentru măsurări repetate……………………………………………….325

9
11.8 Exerciţii…………………………………………………………………………………………………327
11.9. Coeficientul de corelaţie pentru date ordinale (Spearman)…………………………328
11.9.1. Interpretarea coeficientului de corelaţie Spearman…………………………………329
11.9.2. Când se utilizează coeficientul de corelaţie Spearman……………………………..330
11.9.3. Exerciţii………………………………………………………………………………………………….331
11.10. Rezumat privind testele statistice pentru date ordinale…………………………….331
Capitolul 12.Teste neparametrice pentru date ordinale cu SPSS.................333

12.1.Testul Mann-Whitney (U) pentru două eşantioane independente………………….333


12.2.Testul Wilcoxon pentru două eşantioane-pereche……………………………………….334
12.3.Testul Kruskal-Wallis pentru mai mult de două eşantioane independente……..336
12.4.Testul Friedman pentru măsurări repetate…………………………………………………337
12.5. Corelaţia datelor ordinale (Spearman, Kendall)………………………………………….338
Capitolul 13. Strategia analizei statistice a datelor......................................341

13.1. Alegerea testului statistic…………………………………………………………………………341


13.2. Algoritmul de alegere a procedurii statistice………………………………………………345
13.3. Reguli de fixare a mărimii eşantioanelor de cercetare…………………………………348
13.4. Integrarea analizei statistice în documentul de cercetare……………………………352
13.5. Prezentarea cadrului general al cercetării…………………………………………………353
13.6. Prezentarea metodei şi a condiţiilor investigaţiei, precum şi a lotului de
subiecţi………………………………………………………………………………………………………….354
13.7. Prelucrarea datelor…………………………………………………………………………………355
13.8. Discutarea şi interpretarea rezultatelor…………………………………………………….358
13.9. Formularea concluziilor…………………………………………………………………………..361
13.10. Greşeli frecvente în redactarea analizelor statistice…………………………………362
13.11. Exerciţii……………………………………………………………………………………………….364
Capitolul 14. Rezolvări şi comentarii la exerciţiile din volum…………….365
Anexe…………………………………………………………………………………………410
Anexa 1. Tabelul distribuţiei valorilor sub curba normală z…………………………………..411
Anexa 2. Tabelul valorilor critice pentru distribuţia t Student (unilateral)………………413

10
Anexa 3. Tabelul parţial al distribuţiei F pentru a = 0,05…………………………………….414
Anexa 4. Valorile critice pentru coeficientul de corelaţie Pearson (r)…………………….415
Anexa 5. Tabelul Fisher de transformare a valorilor r în scoruri Z…………………………416
Anexa 6. Valorile critice pentru distribuţia chi-pătrat…………………………………………..417
Anexa 7. Tabelul valorilor critice pentru testul Mann-Whitney (V)………………………..418
Anexa 8. Valorile critice pentru testul Wilcoxon………………………………………………….419
Anexa 9. Valorile critice pentru testul de corelaţie a rangurilor (Spearman)………….420
Anexa 10 Statistica Inferenţială 1:Testarea ipotezelor cu o singură variabilă
dependentă……………………………………………………………………………………………………421
Anexa 11 Statistica inferenţială 2:Testarea ipotezelor pentru mai mult de o variabilă
dependentă………………………………………………………………………………………………………422
Bibliografie………………………………………………………………………………..423

11
Studenţilor mei pentru că m-au ajutat să apară această carte, punându-mi, la
orele de curs şi la seminarii, tot felul de întrebări bune şi pentru că, fiecare
întrebare bună a fost şi pe jumătate răspuns.

12
Cuvânt înainte
Acest volum este o introducere în teoria şi practica statisticii în domeniul psihologiei
precum şi în aplicaţiile ultimei versiuni SPSS(Statistical Package for the Social Sciences),
cel mai răspândit pachet de programe statistice, versiunea cu numărul 18 comercializată
de producător din luna martie 2009, sub denumirea PASW(Predictive Analytics
Software).
Volumul este destinat studenţilor la psihologie, dar şi tinerilor psihologi practicieni care
doresc să-şi consolideze cunoştinţele de bază din domeniul statisticii şi al aplicaţiilor
SPSS(PASW) de procesare computerizată a datelor din domeniul lor de specialitate, în
absenţa cărora abordarea statisticilor avansate este de neconceput.
Lucrarea este rodul predării cursurilor şi desfăşurării seminariilor noastre cu
studenţii anului I ai facultăţii de psihologie la Universitatea Ecologică din Bucureşti la
disciplina ”Statistica psihologică şi prelucrarea informatizată a datelor”. Este o carte
scrisă de un psiholog , a cărui apropiere de statistică a fost impusă de nevoile practicii
de zi cu zi. Contactul direct cu studenţii şi cu problemele lor în înţelegerea statisticii ne-a
îndemnat spre o abordare, în principal, de tip explicativ, sprijinită pe exemple din
activitatea psihologică, apelul la formalizarea statisticii fiind limitat la minimum necesar.
În acelaşi timp am avut în vedere pregătirea, în general umanistă, a studenţilor de la
specializarea psihologie, motiv pentru care s-a renunţat la prezentarea detailată şi
exhaustivă a aparatului matematic, care constituie fundamentul analizelor statistice.
Lucrarea cuprinde capitole teoretice(1, 2, 3, 6, 7, 9, 11, 13), succedate într-o
ordine logico-didactică, de capitole privind aplicaţiile din programul SPSS(PASW, 4, 5, 8,
10, 12). Pentru a susţine însuşirea noţiunilor din domeniul statisticii am corelat
prezentarea cu exemple şi exerciţii care presupun calcule elementare ce pot fi rezolvate
cu uşurinţă utilizând un simplu calculator de buzunar(care poate să aibă şi funcţii simple
statistice). Înainte de trecerea la efectuarea exerciţiilor utilizând programele aplicaţiilor
SPSS(PASW), recomandăm, mai întâi, efectuarea exerciţiilor de la finalul fiecărui capitol
teoretic folosind calculatorul simplu, după care confruntarea cu ”soluţiile şi comentariile
la aceste exerciţii” ataşate la sfârşitul volumului.
Parcursă sistematic din aproape în aproape, acordându-se atenţie fiecărui concept,
dar mai ales celor fundamentale, statistica psihologică este o disciplină abordabilă chiar
şi pentru cei care nu sunt prieteni ai cifrelor. Roadele acestui efort constau nu doar în
capacitatea de a efectua sau de a înţelege rezultatele unor cercetări ştiinţifice, ci şi în
dezvoltarea spiritului critic, atât de necesar unui profesionist în domeniul psihologiei.
Doresc să aduc mulţumiri în primul rând studenţilor mei, pentru efortul lor de a
înţelege şi a învăţa să aplice această disciplină în viitoarea şi nobila lor profesie de
psiholog. Întrebările lor, succesele, dar şi eşecurile lor, m-au susţinut în demersul meu
de a scrie conţinutul acestui volum şi mă vor ajuta, sunt sigur, la îmbunătăţirea lui, în
ontinuare. De asemenea sunt bucuros să exprim cele mai calde mulţumiri Editurii
Didactice şi Pedagogice pentru disponibilitatea manifestată faţă de această lucrare.

Gheorghe Perţea, octombrie 2009, www.gheperteapsihologie.ro

13
Capitolul 1. Introducere

Statistica este un mod de a descrie şi a analiza (a esenţializa şi a estima) diferite


aspecte ale realităţii cu ajutorul numerelor. Ea face parte din viaţa noastră de zi cu zi
într-o măsură mult mai mare decât ne dăm seama în mod obişnuit. Aceasta, în primul
rând, pentru că informaţia numerică este omniprezentă. „Toate lucrurile ce se cunosc au
un număr: fără număr nu ne-ar fi cu putinţă să cunoaştem sau să gândim nimic”
(Philolaos, Fragmente din presocratici, sec. V î.e.n., apud Umberto Eco, 2005, Istoria
frumuseţii, Ed. Rao, p.62,). Informaţiile vehiculate în mass-media abundă de cifre care
se referă la cele mai variate aspecte ale realităţii economice, sociale, tehnologice,
medicale etc. Nici psihologia nu face excepţie. Teoriile elaborate în acest domeniu se
sprijină pe cercetări care presupun evaluări(estimări) numerice, cantitative sau calitative,
supuse apoi unor proceduri de analiză statistică. În al doilea rând, statistica face parte
efectivă din viaţa de fiecare zi. Aplicăm concepte statistice în cele mai variate situaţii de
viaţă. Cineva care doreşte să cumpere un CD cu muzică şi ascultă câteva zeci de
secunde pentru a se decide, nu face decât să pună în practică un model statistic bazat
pe eşantionare şi decizie probabilistă(“dacă fragmentele de melodii deschise şi ascultate,
îmi vor plăcea, atunci este foarte probabil că îmi va plăcea tot acest CD, deci decizia de
a-l cumpăra va fi o decizie bună”). La un alt nivel, decizia de a ne căsători cu cineva sau
opţiunea pentru o anumită profesie, sunt tot decizii de natură statistic probabilistă. În
ambele situaţii enunţate estimăm(apreciem) o serie de caracteristici şi facem predicţii
asupra „şansei de succes” a deciziei pe care o luăm. Atunci când, la apariţia pe stradă a
unei mingi, şoferul reduce viteza, o face pentru că estimează creşterea probabilităţii de
apariţie a unui copil imprudent care doreşte să recupereze. Desigur, nu întotdeauna
acest lucru este adevărat, dar ignorarea acestei probabilităţi poate avea consecinţe
tragice. Exemplele ar putea continua la nesfârşit. În fapt, toate fiinţele vii, funcţionează ca
nişte mecanisme statistice fine şi supersofisticate, chiar dacă actele lor nu decurg în mod
formal din prelucrări(procesări) numerice.

14
1.1. Definiţia statisticii

Statistica este o ramură a matematicii, ce s-a constituit ca disciplină care include o


varietate de metode(tehnici şi proceduri) şi care se ocupă de colectarea, descrierea şi
analizarea datelor obţinute, în urma unor intervenţii experimentale sau
nonexperimentale, în vederea extragerii unor concluzii (inferenţe, informaţii) pe baza
acestora(Chase, Bown, 1996, apud Hohn M.,2007).

Datele, la rândul lor, chiar într-un stadiu incipient de prelucrare, sunt informaţii obţinute
prin categorializare, numărare sau măsurare, pe baza utilizării unor metode adecvate. În
esenţa ei, statistica operează cu numere care descriu(analizează, esenţializează,
estimează) realitatea din jurul nostru. La începuturi ea a fost asociată cu informaţiile
necesare conducerii afacerilor statului, de unde şi numele de statistică. Termenul de
statistică provine din latinescul medieval „status”, care semnifica „stare politică”. În anul
1770, la Londra, baronul Bielfeld publică lucrarea „ The Elements of Universal Erudition ”
în care există un capitol de „statistică”, definită ca fiind: „Ştiinţa care ne învaţă care este
organizarea politică a tuturor statelor moderne ale lumii”. Treptat, conceptul a evoluat,
statistica dezvoltând un nivel teoretic, ca ramură a matematicii, şi o varietate de forme
aplicative(statistica economică, statistica medicală, statistica psihologică etc.).

1.2. Statistica, instrument al metodei ştiinţifice în psihologie


Societatea modernă este construită pe cuantificare numerică şi interpretarea datelor de
acest tip, de la evaluarea ratei şomajului la calcularea indicelui de inflaţie, până la studiile
care estimează eficienţa unui anumit medicament sau a unei anumite metode de
psihoterapie. Obiectivele fundamentale ale unui curs de statistică pentru studenţii în
psihologie sunt următoarele:

1. dezvoltarea înţelegerii statisticii şi relaţiei acesteia cu cercetarea în domeniul


psihologiei;
2. dezvoltarea capacităţii de rezolva probleme de natură statistică
specifice problemelor din domeniul psihologiei;
3. promovarea unei atitudini bazate pe raţionament critic în

15
raport cu opiniile sau teoriile din domeniul psihologiei;
4. formarea abilităţilor de comunicare în domeniul statisticii
psihologice, ceea ce presupune atât capacitatea de înţelege
lucrările de specialitate cât şi capacitatea de a elabora astfel de lucrări.
Psihologia se ocupă cu studiul ştiinţific al comportamentului şi proceselor mentale. Într-
un document recent, European Federation of Psychologists Associations (www.efpa.be),
care reprezintă comunitatea profesională şi ştiinţifică a psihologilor la nivel european,
consideră că procesul de formare profesională a psihologilor trebuie să cuprindă în mod
obligatoriu: cunoştinţe teoretice, abilităţi şi competenţe practice, precum şi capacităţi de
cercetare ştiinţifică. În ceea ce priveşte capacităţile de cercetare, EFPA consideră că ele
sunt impuse de importanţa evaluării practicii curente, dar şi de nevoia de dezvoltare a
unor noi modele, tehnici şi programe de intervenţie. În acelaşi timp, se apreciază că
studenţii trebuie să dobândească experienţă în direcţia iniţierii şi conducerii independente a
unor proiecte de cercetare.

Utilizarea sistematică a statisticii în psihologie datează de la începutul anilor ‘50. La


vremea respectivă, în care calculatoarele se aflau încă în era electromecanică, cea mai
mare problemă era efortul de calcul. Din acest motiv, a învăţa statistică însemna atunci
mai ales învăţarea unor formule şi a unor proceduri care să simplifice pe cât posibil
efortul de calcul. Cel mai adesea, aplicarea formulelor şi prelucrarea datelor cereau un
efort atât de mare încât rămânea puţin timp şi interes pentru înţelegerea a ceea ce se
află în spatele lor. Apariţia şi diseminarea pe scară largă a calculatoarelor,
disponibilitatea programelor de prelucrări statistice, au făcut posibilă trecerea într-o
nouă fază, aceea în care accentul se pune pe înţelegerea raţionamentelor statistice.

Într-o butadă care a făcut tradiţie, Ebbinghaus (1920), într-un curs universitar de
psihologie de la începutul secolului XX, afirma că „psihologia are un trecut îndelungat
dar o istorie scurtă”. Sensul profund al acestei afirmaţii rezidă în distincţia dintre două
modalităţi de a aborda problematica psihologiei umane: una „neştiinţifică” sau, mai
corect spus, „preştiinţifică”, ale cărei începuturi se regăsesc încă la începuturile civilizaţiei
umane, şi o alta „ştiinţifică”, care a debutat mult mai aproape de zilele noastre.

16
În esenţă, ştiinţa este o metodă, un mod specific de a afla răspunsuri la întrebările pe
care ni le punem. Principalele ei caracteristici sunt: căutarea unor reguli
generale(legităţi), colectarea unor dovezi obiective, operarea cu afirmaţii controlabile,
atitudine sceptică faţă de cunoştinţele acumulate, atitudine deschisă faţă de orice informaţii
noi, creativitate şi transparenţă.

Utilizarea statisticii în psihologie este impusă de exigenţele metodei ştiinţifice, ca metodă


de culegere şi prelucrare şi interpretare a datelor. Dincolo de procedurile care o compun,
metoda statistică este un concept abstract care poate fi mai uşor înţeles dacă îl raportăm
la ceea ce înseamnă „metoda neştiinţifică”, la modul în care ne fundamentăm cunoştinţele
şi convingerile în viaţa de fiecare zi. În acest sens, se pot distinge trei modalităţi
„neştiinţifice” de fundamentare a cunoaşterii (Spata, 2003):

Tradiţionalismul sau argumentul autorităţii. Ceea ce ştim sau învăţăm din


contextul social sau cultural, se bazează pe obişnuinţe sau superstiţii. Uneori nici
nu suntem conştienţi care este sursa cunoştinţelor noastre. Pur şi simplu, ştim şi
orice argument contrar este respins înainte de a fi verificat în vreun fel. Dacă la
baza unei informaţii cu care operăm se află şi o figură autoritară (părinte,
profesor, „cei care au văzut”), atunci atitudinea necritică este şi mai consistentă.
Această cale de cunoaştere are avantajul de a ajunge la înţelegerea mai rapidă a
unei situaţii şi fără riscurile pe care le presupune o încercare proprie. În acelaşi
timp, prezintă şi dezavantajul „îngheţării” în soluţii şi adevăruri prestabilite care,
uneori, reflectă interese subiective sau limite personale.
Raţionalismul. Baza acestuia este deducţia, pornirea de la un principiu general
pentru a se ajunge la anumite concluzii specifice. O teorie este considerată
adevărată prin simplul fapt că este „logică”. Celebrul silogism antic „Toţi oamenii
sunt muritori. Socrate este om, Socrate este muritor” este fără îndoială adevărat şi
nu are nevoie de un studiu empiric pentru a fi demonstrat. Problema este că,
pentru a obţine presupuneri corecte, atât principiul general cât şi presupunerile
care decurg din acesta trebuie să fie corecte. Ceea ce nu se întâmplă
întotdeauna. De exemplu, silogismul „Toţi oamenii sunt morali. Hitler este om.

17
Hitler este moral.” nu se mai susţine, chiar dacă respectă criteriile logicii formale.
În plus, raţionamentul de tip deductiv nu aduce un plus de cunoaştere deoarece
se bazează pe adevărurile care au condus, în trecut, la constituirea principiului
din care a decurs raţionamentul deductiv. Spre deosebire de acesta, raţionamentul
inductiv urmează drumul de la specific la general şi permite noi explorări ale unui
subiect. Inducţia este baza metodei ştiinţifice.
„Bunul simţ” sau experienţa comună . Este oare nevoie de o cercetare ştiinţifică
pentru a dovedi faptul că numărul repetiţiilor favorizează memorarea
cunoştinţelor şcolare? „Bunul simţ”, bazat pe observaţia curentă, nu este oare
suficient pentru a fi convinşi de acest lucru? Într-o anumită măsură aşa este, dar
învăţarea este un fenomen mult mai complex, iar efectul repetiţiei poate fi
influenţat de numeroşi factori (oboseala, frecvenţa şi durata pauzelor, nivelul de
stres etc). Dar, de multe ori, „simţul comun” este extrem de susceptibil la
aprecieri eronate. De exemplu, bazându-ne pe acest suport, am fi tentaţi să
apreciem că o persoană care suferă o criză într-un spaţiu public, are mai multe
şanse să primească ajutor dacă este mai mult lume în jur. În realitate, rezultatele
cercetărilor ştiinţifice arată că în astfel de situaţii are loc un fenomen de
„difuziune a responsabilităţii”, iar ajutorul aşteptat este mai puţin prompt decât
dacă în jur ar fi mai puţini oameni. „Simţul comun” este un puternic suport al
cunoaşterii umane, pentru simplul fapt că se sprijină pe experienţe şi trăiri, care îl
fac să pară credibil. Dar tocmai în această „aparenţă” constă şi vulnerabilitatea
sa. Pe de altă parte, numai o mică parte a faptelor şi situaţiilor sunt accesibile
acestui tip de cunoaştere. Cu cât acestea sunt mai complexe, cu atât simţul
comun devine mai neputincios în „descifrarea” lor.
Modalităţile cunoaşterii comune, enunţate mai sus, nu sunt prin ele însele lipsite de
valoare. Deşi nu pot constitui argumente pentru enunţarea de concluzii generalizabile,
ele pot sluji în calitate de furnizoare de probleme şi ipoteze de cercetare. În nici un caz
însă nu pot înlocui demersul doveditor al metodei ştiinţifice. Aceasta reprezintă o
modalitate de abordare empirică şi sistematică a manifestărilor realităţii, indiferent de

18
natura lor şi este, de aceea, comună tuturor cercetătorilor ştiinţifici, fie ei fizicieni,
biologi, medici, astronomi sau psihologi.

Un demers de tip ştiinţific este, în esenţă, un proces sistematic testare a ipotezelor prin
proceduri de recoltare de date empirice, evaluare şi interpretare a acestora, predicţii şi
decizii cu privire la validitatea acestor predicţii. În domeniul psihologiei, obiectivul
fundamental al metodei ştiinţifice este înţelegerea, explicarea şi predicţia
comportamentului uman şi proceselor mintale. În acest proces, statistica nu face decât
să pună la dispoziţie un set de proceduri de calcul şi de raţionamente decizionale cu
privire la semnificaţia datelor de cercetare. Rolul statisticii este acela de a descrie, de a
face predicţii şi de a conferi credibilitate datelor de observaţie. Ea nu exclude intuiţia, ci o
supune unui control critic. Să presupunem că un psihoterapeut intuieşte că depresia
cronică a uneia dintre pacientele sale poate fi pusă în legătură cu faptul că este mică de
statură. În raport cu acest caz singular el îşi poate verifica intuiţia prin dialogul terapeutic,
dar dacă doreşte să probeze faptul că în general femeile scunde sunt mai predispuse la
depresie cronică, va trebui să iniţieze un proces de cercetare.

1.3. Scurt istoric al statisticii în psihologie


“Psihologia are un trecut îndelungat, dar o istorie scurtă”, afirmă Ebbinghaus (1850-
1909) într-un curs universitar de psihologie de la începutul secolului XX. Sensul profund
al acestei afirmaţii rezidă în distincţia dintre cele două modalităţi de a aborda
problematica psihologiei umane: una „neştiinţifică” sau, mai precis „preştiinţifică”, ale
cărei începuturi coincid cu începuturile civilizaţiei umane, şi alta „ştiinţifică”, cu un debut
mult mai apropiat de zilele noastre.

Utilizarea sistematică a statisticii în psihologie datează de la începutul anilor 1950. La


vremea respectivă, când maşinile de calcul se aflau încă în era electromecanică, cea
mai mare problemă era efortul de calcul. Din acest motiv, a învăţa statistică însemna
atunci mai ales învăţarea unor formule şi a unor proceduri care să simplifice pe cât
posibil calculele matematice. Cel mai adesea, aplicarea formulelor şi prelucrarea datelor
cereau un efort atât de mare, încât rămânea puţin timp şi interes pentru înţelegerea a

19
ceea ce se află în spatele lor. Apariţia şi diseminarea pe scară largă a calculatoarelor,
disponibilitatea programelor de prelucrări statistice au făcut posibilă trecerea într-o nouă
fază, în care accentul se pune pe înţelegerea raţionamentelor statistice.

Deşi asocierea dintre psihologie şi o ştiinţă „bazată pe numere” pare surprinzătoare la


prima vedere, statistica nu este un „adaos recent” în practica şi cercetarea psihologică.
Statistica face parte din istoria psihologiei într-o măsură mai mare decât ne-am aştepta.
Această apreciere este susţinută de trecerea în revistă a câtorva dintre personalităţile
importante ale psihologiei care au avut deopotrivă contribuţii importante în inducerea
metodelor cantitative în psihologie şi în dezvoltarea analizei statistice.

Filozoful german Christian von Wolf (1679-1754) a publicat în anul 1732 Psihologia
empirică, urmată în 1734 de Psihologia raţională, fiind unul dintre primii autori care au
folosit termenul psihologie. În opinia sa, filozofia trebuie să se supună unor cerinţe de
claritate şi precizie pe care nu le poate obţine decât prin intermediul raţionamentului şi
al matematicii. În acest spirit, a introdus ideea unui domeniu matematic al psihologiei,
pe care l-a numit psihometrie.

Ernst Heinrich Weber (1795-1878) şi Gustave Theodor Fechner (1801-1878) sunt doi
cercetători cu contribuţii importante în domeniul psihologiei. Cercetările lor asupra
senzaţiilor s-au concretizat într-o lege care le poartă numele şi care face legătura dintre
realitatea psihică şi cea fizică. Lucrarea lui Fechner, Elemente der Psychophysk, apărută
în 1860, considerată actul de naştere al psihologiei moderne, cantitative şi
experimentale, propune un model ştiinţific al lumii naturale, incluzând aici şi
universul psihic.

O altă personalitate importantă în istoria analizei cantitative în psihologie este Francis


Galton (1882-19411), considerat fondator al psihometriei ca ştiinţă a măsurării
facultăţilor mintale şi al psihologiei diferenţiale, un domeniu al psihologiei orientat pe
studiul diferenţelor dintre oameni. În opinia lui Galton, diferenţele de memorie, de
însuşire a abilităţilor matematice, muzicale, literare etc. pot fi supuse unei analize de tip
ştiinţific. Cercetător prolific, el a fost, printre altele, unul dintre pionierii meteorologiei
moderne. În domeniul statisticii, a creat conceptele de regresie şi corelaţie, fiind autorul

20
cunoscutei teorii a regresiei către medie. Se consideră că a fost primul care a utilizat
metodele statistice în studiul diferenţelor umane şi al eredităţii inteligenţei. A introdus
utilizarea chestionarelor şi a sondajelor pentru studii la nivelul colectivităţilor umane.

Contribuţia lui Karl Pearson (1857-1936) la fundamentarea calcului de corelaţie este atât
de importantă, încât coeficientul de corelaţie pentru date cantitative este cunoscut sub
numele său. Este considerat unul dintre principalii promotori ai analizei statistice
riguroase în stadiul comportamentului uman. Pe lângă coeficientul de corelaţie, a
dezvoltat şi statistica neparametrică chi-pătrat, pe care o vom prezenta pe parcurs. A
fost editorul revistei Biometrika, pe carea fondat-o împreună cu Galton.

Charles Edward Sperman ( 1863-1945), unul dintre elevii lui Wundt, cu un trecut de
ofiţer în armata colonială britanică în India, este autorul conceptului de inteligenţă
generală. Încă din vremea studenţiei, el a emis celebra teorie bifactorială a inteligenţei,
care afirma că întreaga funcţionalitate intelectuală este susţinută de o aptitudine mintală
generală, acompaniată de aptitudini specifice pentru diferite categorii de sarcini. În
încercarea de a-şi demonstra teoria, Sperman a dezvoltat analiza factorială, prin care se
pune în evidenţă gruparea variabilelor pe baza analizei de corelaţie, în prezent utilizată
în numeroase alte domenii decât psihologia. Este, în acelaşi timp, autorul unui indice de
corelaţie pentru date ordinale, care îi poartă numele. A fost ales membru al Royal
Society of London for the Improvement of Natural Knowledge, pentru aplicarea
metodelor matematice în analiza matematică a minţii umane şi pentru studiile originale
asupra corelaţiei în acest domeniu.

Raymond B. Cattel (1905-1988), psiholog anglo-american, a dezvoltat teoria factorială a


inteligenţei a lui Superman, utilizând teste şi o metodă personală de analiză factorială
care include şi factorii nonintelectuali în dezvoltarea inteligenţei. În acest spirit, a creat
chestionarul 16 PF (Sixteen Personality Factors), unul dintre cele mai cunoscute teste de
personalitate. Cattell a fost un susţinător puternic al analizei factoriale în domeniul
psihologiei, ca suport pentru identificarea constructelor psihologice. El considera că orice
teorie trebuie să rezulte din analiza datelor în cercetările empirice.

21
Una dintre personalităţile care avut o contribuţie majoră la utilizarea statisticii în
psihologie este Ronald Aylmer Fisher (1890-1962). Considerat un geniu al statisticii,
Fisher a fost un savant polivalent, având contribuţii în matematică, astronomie, biologie
şi genetică. Apropierea sa de statistică a fost stimulată de interesul pentru studiul erorii,
domeniu în care a publicat şi o lucrare despre teoria erorilor. Fisher este cunoscut mai
ales prin dezvoltarea pe care a adus-o în domeniul analizei de varianţă, una dintre cele
mai utilizate proceduri în statistica psihologică.

Analiza de cluster, o familie de proceduri statistice destinată cazurilor şi realizării de


tipologii, care se bucură de o mare apreciere în prezent, a fost şi ea dezvoltată în cadrul
ştiinţei psihologice, fiind recunoscută în acest sens contribuţia cercetătorilor Tyron,
Johnson şi Ward (apud Blashfield, 1980).

1.4. Utilitatea statisticii în activitatea curentă a psihologilor


Statistica nu este un „adaos recent” în practica şi cercetarea psihologică. Ideea unei
„ramuri matematice” a psihologiei aparţine lui Francis Galton (1882-1911), care a
propus termenul de „psihometrie”. Charles Edward Spearman (1863-1945) este autorul
conceptului de „inteligenţă generală”. În încercarea de a-şi demonstra teoria, Spearman
a dezvoltat analiza factorială, o procedură statistică apărută în câmpul aplicativ al
psihologiei dar utilizată în prezent în numeroase alte domenii. La rândul său, Raymond B.
Cattel (1905-1998) a dezvoltat un model factorial al personalităţii, care stă la baza unuia
dintre cele mai cunoscute chestionare de personalitate (Cattel 16PF). Karl Pearson (1857-
1936) a fundamentat calculul de corelaţie şi este considerat unul din principalii promotori
ai analizei statistice riguroase în studiul comportamentului uman. Fie şi această scurtă
listă de personalităţi ar trebui să fie suficientă pentru a susţine ideea că statistica şi
psihologia fac parte dintr-o construcţie intelectuală necesară, pusă în slujba înţelegerii şi
explicării psihicului uman.

În prezent, statistica este unul dintre instrumentele de bază ale practicii psihologice. Iată
doar câteva argumente în sprijinul ideii că utilizarea statisticii face parte integrantă din
activitatea curentă a unui psiholog.

22
Una dintre cele mai obişnuite ipostaze ale psihologului este, probabil, aceea de a utiliza
teste în evaluarea unor caracteristici psihice. Ei bine, statistica este direct şi total
implicată în acest aspect profesional. În faza de elaborare a testului, alegerea itemilor
(întrebărilor) şi evaluarea consistenţei interne (stabilirea calităţii de instrument de
măsurare psihică), se bazează pe proceduri statistice. În faza de utilizare, se utilizează
proceduri statistice pentru fixarea etaloanelor de raportare a scorurilor individuale. Chiar
şi atunci când un psiholog utilizează un instrument de evaluare complet pregătit pentru
aplicare, nu este admisibil să o facă fără a înţelege fundamentarea statistică a acestuia
ca instrument psihologic. De fiecare dată când are de a face cu un instrument nou,
psihologul este obligat să se informeze asupra calităţilor sale psihometrice, pentru a avea
garanţia că acesta corespunde exigenţelor profesionale şi nevoilor sale curente. Este de
la sine înţeles că are nevoie de statistică, cu atât mai mult, în situaţiile în care doreşte să
elaboreze el însuşi un test psihologic, ceea ce face parte din competenţa profesională a
oricărui psiholog.

1. Selecţia psihologică este un domeniu de aplicabilitate larg răspândit şi care se


bazează puternic pe aportul statisticii. Cu ajutorul ei se pune în evidenţă calitatea
prognostică (predictivă) a unuia sau mai multor teste luate împreună (baterie), se
fixează pragul de respingere şi se constituie scorurile individuale pe baza cărora
se ia decizia de selecţie.
2. Orice problemă pe care şi-o pune un psiholog, devenită subiect de cercetare, nu
poate fi rezolvată în afara utilizării unor proceduri statistice adecvate. Probleme
de genul: „există o diferenţă între două categorii de subiecţi?”, „există o influenţă
reală a unei anumite condiţii asupra stării psihice, atitudinii, performanţei, unor
subiecţi?”, şi multe altele de acelaşi gen, nu pot fi rezolvate fără ajutorul
statisticii.
3. Chiar şi atunci când se dedică unei activităţi cu orientare puternic individuală,
cum este psihoterapia, să zicem, psihologul nu se poate dispensa de statistică. Ea
îi este necesară, de exemplu, pentru evaluarea eficienţei unei noi metode
terapeutice, comparativ cu o altă metodă, sau pentru identificarea anumitor

23
condiţii care pot influenţa eficienţa şedinţelor de terapie (ora zilei, similaritatea de sex
dintre pacient şi terapeut etc.).
4. În fine, integrarea în mediul ştiinţific profesional îl obligă pe orice psiholog să
utilizeze metodele statistice în elaborarea studiilor proprii sau în lectura şi
înţelegerea studiilor din literatura de specialitate. În opinia lui Huck (2004),
pământenii se împart în trei categorii: cei care fac cercetare ştiinţifică; cei care nu
fac cercetare, dar se confruntă cu rezultatele altora şi cei care nici nu fac şi nici nu
se întâlnesc cu rezultatele cercetărilor. Aproape orice psiholog face din prima
categorie, orice psiholog face parte din a doua categorie şi nimeni nu se poate
numi psiholog dacă face parte din a treia categorie.
Aceste sunt doar câteva dintre aspectele care argumentează că statistica este un
demers esenţial al metodei ştiinţifice în psihologie. Dar, în acelaşi timp, nu trebuie să
uităm că nici statistica şi nici metodologia de investigare psihologică (teste, dispozitive
computerizate etc..), oricât de sofisticate ar fi, nu dau psihologiei, prin ele însele, un
caracter de ştiinţă. Ştiinţa este o metodă, un model de cunoaştere a realităţii, o cale prin
care se explorează necunoscutul şi se fac previziuni. Statistica, la fel ca şi metodele
psihologice, nu sunt decât instrumente utile, indispensabile, pentru abordarea ştiinţifică a
fenomenelor psihice.

1.5. Dificultăţi şi riscuri în însuşirea metodelor statistice


Dacă este sa fim drepţi, trebuie să recunoaştem că, în ciuda utilităţii ei incontestabile,
statistica nu a fost niciodată disciplina preferată a studenţilor în psihologie. Confruntarea
lor cu această materie se dovedeşte a fi, uneori, o surpriză neplăcută la aflarea planului
de învăţământ universitar. Trebuie să acceptăm adevărul că majoritatea celor care vor sa
înţeleagă psihicul uman nu manifestă o simpatie deosebită pentru numere, formule şi
algoritmi de calcul. De aici şi până la „fobia de statistică” nu este o distanţă prea mare.
Chiar dacă această „fobie” poate fi reală în unele cazuri, nu întotdeauna performanţele
insuficiente în învăţarea statisticii se datorează „statisticofobiei”. Un curs introductiv de
statistică aplicată în psihologie este pe deplin accesibil oricărui absolvent de liceu, chiar

24
şi celor care nu au urmat o secţie de tip „real”. Cu toate acestea, anumite dificultăţi nu
pot fi negate, cele mai importante fiind:

abundenţa de concepte noi, cu semnificaţii uneori dificil de înţeles în mod intuitiv;


prezenţa unor concepte cunoscute din limbajul cotidian dar care au semnificaţii diferite
în domeniul statisticii;
dificultatea înţelegerii raţionamentelor de tip probabilistic.
În altă ordine de idei, „naivitatea statistică” reprezintă un risc cel puţin la fel de mare ca
şi „statisticofobia”. Ea se referă la utilizarea în necunoştinţă de cauză a unor prelucrări
statistice, fără a şti dacă sunt legitime sau nu şi fără a le înţelege semnificaţia. Acest tip
de atitudine a apărut şi este favorizat de utilizarea programelor de calculator, care
permit proceduri statistice sofisticate, altădată greu accesibile, şi care întreţin iluzia că ar
putea fi aplicate în afara unei profunde cunoaşteri a rostului şi semnificaţiei lor. În fine,
un alt tip de risc este cel dat de utilizarea statisticii cu scopul de a epata. „Epatantul
statistic” abuzează de statistică, utilizează cât mai multe proceduri, face risipă de
reprezentări grafice, de multe ori redundante, sau caută cu orice preţ proceduri
„exotice”, rar utilizate şi cunoscute de puţină lume, chiar dacă ar ajunge la aceleaşi
concluzii prin utilizarea unor proceduri „clasice”. Pe scurt, se poate vorbi de „epatare
statistică” ori de câte ori prelucrările trec înaintea raţionamentului statistic şi, mai ales,
înaintea demersului de cercetare. Statistica în psihologie este, întotdeauna, un mijloc şi
nu un scop în sine. Ea este un simplu instrument în atingerea unor obiective, dar un
instrument fără care respectivele obiective nu pot fi atinse.

25
Capitolul 2. Concepte fundamentale

Statistica aplicată în psihologie se sprijină pe o serie de noţiuni ce ţin de metodologia


ştiinţifică şi de particularităţile aplicării ei în domeniul psihologiei. În mod firesc acestea
sunt abordate intensiv în contextul unor discipline specializate, precum: metodologia
cercetării ştiinţifice, psihologia experimentală, psihodiagnosticul ş.a. Aici vom introduce
numai conceptele indispensabile înţelegerii şi aplicării procedurilor statistice, fără a intra
în detaliile ce vor fi studiate la disciplinele amintite mai sus.

2.1. Noţiunea de variabilă psihologică


Numim variabilă orice caracteristică care poate să ia mai mult de o singură valoare, care
variază în funcţie de o serie de factori (persoane, situaţii, mediu). Variabilitatea se referă
la proprietatea oricărui obiect de studiu de a lua valori diferite. Psihologia a devenit
ştiinţă aplicativă atunci când au fost create metodele şi tehnicile de măsurare a
diferenţelor psiho-individuale, ca variabile individuale. Iată câteva exemple de variabile
psihologice: inteligenţa, timpul de reacţie, anxietatea, sociabilitatea etc. Alte variabile nu
sunt intrinsec psihologice dar au semnificaţii evidente în acest domeniu (sexul
feminin/masculin, vârsta). Cercetarea psihologică are drept obiectiv esenţial studierea
variabilelor, mai exact explicarea variabilităţii diferitelor caracteristici ale realităţii psihice.
Ţinând cont, de exemplu, de faptul că oamenii diferă în funcţie de gradul de respectare
a normelor, am putea fi interesaţi dacă tinerii sunt mai puţin conformişti decât
persoanele mai în vârstă. În acest exemplu de cercetare întâlnim două variabile:
conformismul şi vârsta, iar ceea ce dorim să aflăm este dacă una variază în raport cu
cealaltă.

2.1.1. Variabile latente/variabile observate

Să luăm în consideraţie două dintre variabilele psihologice introduse mai sus:timpul de


reacţie şi anxietatea. Prima se măsoară ca durată de la apariţia unui stimul până la
înregistrarea unui răspuns din partea subiectului, fiind ceea ce se numeşte o variabilă
observată (sau manifestă), definită printr-o dimensiune unică(timpul). În ceea ce
priveşte anxietatea lucrurile stau diferit. Aceasta este un construct psihologic care

26
exprimă nesiguranţă, anticipare neliniştită şi, de regulă, negativă a evenimentelor
viitoare pentru care nu avem un indicator unic, direct măsurabil. Pentru a o cuantifica
utilizăm diverşi indicatori, constituiţi din întrebări de genul: „În noaptea dinaintea unui
examen vă este greu să adormiţi?”; „Dacă sunteţi chemat(ă) pe neaşteptate în biroul
şefului, simţiţi că vă creşte pulsul?” ş.a. Fiecare întrebare este o variabilă observată,
care se referă la o anumită conduită sau reacţie. Dacă pentru fiecare răspuns care
semnifică o manifestare de anxietate atribuim un punct, atunci anxietatea se constituie
ca sumă a punctelor obţinute la toate întrebările(itemii) chestionarului. Din acest motiv,
anxietatea nu este o variabilă direct observată, ci una latentă, iar întrebările (itemii)
chestionarului au caracterul de indicatori ai acesteia. Situaţiile de acest tip sunt extrem
de obişnuite în domeniul psihologiei, marea majoritate a variabilelor psihologice fiind de
tip latent(inteligenţa, labilitatea emoţională, sociabilitatea, stima de sine, motivaţia etc.).
După cum vom vedea mai târziu, statistica pune la dispoziţie proceduri speciale de
evaluare a constructelor psihologice latente, pentru a avea garanţia că ele sunt
constituite în mod adecvat din punctul de vedere al calităţilor de măsurare.

2.1.2. Variabile dependente/variabile independente

În esenţă, un studiu statistic îşi propune evidenţierea legăturilor dintre diverse


caracteristici ale realităţii (variabile). În acest context, există variabile ale căror valori
sunt dependente, pentru că variază în funcţie de valorile altei sau altor variabile, care
sunt denumite, din acest motiv, independente. Identificarea lor corectă în cazul unui
studiu statistic este esenţială pentru fundamentarea procedurilor statistice.

Să luăm câteva exemple: Un cercetător doreşte să afle dacă efectuarea unor exerciţii de
relaxare psihică poate conduce la creşterea performanţei unor sportivi trăgători la ţintă.
În acest caz, una dintre variabile este „performanţa” trăgătorilor (punctajul obţinut). A
doua variabilă este mai puţin evidentă. Subiecţii „diferă”, „variază”, în funcţie de
apartenenţa la grupul care a efectuat sau la cel care nu a efectuat exerciţii de relaxare
înainte de tragere. Acestea sunt chiar cele două niveluri (valori) ale variabilei, şi care pot
fi codificate într-un fel oarecare (să zicem: „1” pentru subiecţii relaxaţi şi „2”, pentru cei
care nu au efectuat relaxare). Aceasta variabilă are un caracter „independent” în

27
condiţiile studiului nostru, plasarea subiecţilor într-unul din cele două grupuri făcându-se
pe o bază strict aleatoare.

În mod esenţial, variabila dependentă face obiectul măsurării cu scopul de a fi supusă


unor concluzii. Prin opoziţie, variabila independentă este utilizată ca variabilă de
influenţă, ale căror efecte posibile asupra variabilei dependente urmează sa fie puse în
evidenţă. Termenii „dependent”, „independent” se utilizează în mod obişnuit în legătură
cu cercetarea experimentală. În acest context există variabile „manipulate” adică
„independente” de reacţiile, intenţiile, conduitele sau trăirile subiecţilor investigaţi (toate
acestea fiind variabile „dependente”). În raport cu analiza statistică, definirea variabilelor
ca dependente şi independente nu este condiţionată de măsurarea lor în condiţii de
experiment.

Vom reţine faptul că nu există variabile care sunt „dependente” sau „independente” prin
natura lor. Caracteristica de a fi de un tip sau de altul provine din rolul care le este
atribuit de către cercetător într-un anumit context de cercetare. De exemplu, dacă
presupunem că starea emoţională este influenţată de fumat, rezultatul la un test de
labilitate emoţională este variabila dependentă iar fumatul variabila independentă. Într-
un alt studiu, însă, în care ne interesează frecvenţa fumatului în funcţie de sex, numărul
ţigărilor este variabila dependentă iar sexul, variabila independentă. Sexul, la rândul
său, poate deveni variabile dependentă într-un studiu privind relaţia dintre consumul
unei anumite substanţe de către gravide asupra sexului copiilor.

2.1.3. Variabile continue/variabile discrete

Se numeşte „continuă” o variabilă de tip numeric (cantitativ, de tip interval/raport) care


are un număr teoretic infinit de niveluri ale valorilor măsurate. Acest tip de variabilă
poate lua, în principiu, orice valoare, permiţând utilizarea zecimalelor. Exemple: timpul
de reacţie, înălţimea, greutatea etc.

Se numeşte „discretă” o variabilă care prezintă un număr finit al valorilor pe care le


poate lua (numărul persoanelor dintr-o familie, numărul de ţigarete fumate zilnic).

28
2.2. Măsurarea în psihologie
Măsurarea este un domeniu al matematicii aplicate. Debutul teoretizării ei în psihologie
s-a produs în anul 1946, odată cu apariţia articolului lui S.S. Stevens „On the theory of
scale of measurement”. În esenţă, a măsura înseamnă a atribui numere sau simboluri
unui aspect al realităţii obiective sau subiective, în funcţie de anumite aspecte cantitative
sau calitative care le caracterizează. În acest mod relaţia dintre numere sau simboluri
ajunge să reflecte relaţia dintre caracteristicile cărora le-au fost atribuite. Modul în care
sunt atribuite numere sau simboluri pentru a măsura ceva, se numeşte „scală de
măsurare”.

2.2.1. Ce este măsurarea?

Să presupunem că avem un grup de tinere fete care doresc să devină manechine. În


acest scop se vor atribui numere (măsurare) pentru o serie de caracteristici cum ar fi:
înălţimea, talia, bustul. În acest caz se vor utiliza numere care pot exprima dimensiunea
în metri (1.75, 1.82 etc.) sau în centimetri (175, 182 etc.). Se pot evalua, de asemenea,
şi alte caracteristici cum ar fi culoarea ochilor: albaştri, căprui, verzi. Nu ne împiedică
nimeni să atribuim valori convenţionale pentru fiecare culoare, respectiv, „1”, „2”, sau
„3”, sau orice alte cifre dorim. Aşadar, observăm că în orice măsurare există şi ceva
arbitrar, convenţional, care decurge din opţiunea celui care măsoară. De exemplu,
înălţimea poate fi exprimată şi în „picioare” după sistemul metric englezesc. Sau, dacă
vrem să reprezentăm numeric caracteristica de sex, putem atribui cifrele 1 şi 2.

În exemplul de mai sus am măsurat caracteristici obiective (înălţime, talie, bust). Dacă
însă, fetele ar candida pentru admiterea la o şcoală de aviaţie, atunci am putea deveni
interesaţi de alte caracteristici, cum ar fi cele psihice: inteligenţa, viteza de reacţie, echilibrul
emoţional, intensitatea motivaţiei. Pentru fiecare dintre acestea vom avea alte unităţi de
măsură şi alte reguli de atribuire a numerelor. Mai mult, pentru aceeaşi caracteristică
putem utiliza reguli de corespondenţă numerică diferite, în funcţie de o serie de condiţii
cărora trebuie să le facem faţă. De exemplu, inteligenţa poate fi măsurată în unităţi QI,
note distributive T sau în stanine1. „Inteligenţa”, „echilibrul emoţional”, şi orice alte
caracteristici de natură psihică, sunt constructe abstracte care încearcă să descrie

29
anumite caracteristici ale conduitei umane. Singura modalitate prin care putem dovedi
faptul că acestea există cu adevărat, este aceea de găsi un instrument adecvat pentru a
le măsura. Dacă nu poate fi măsurat, nici un construct psihologic nu prezintă valoare
ştiinţifică.

2.2.2. De ce este important să analizăm procesul de măsurare?

Scopul oricărei măsurări este, într-un fel sau altul, mai direct sau mai puţin direct, acela de
a trage concluzii şi de a susţine raţionamente. De aceea, conştientizarea procesului de
măsurare este importantă pentru:

Cunoaşterea tipurilor de transformări la care putem spune în mod legitim valorile


rezultate prin măsurare. De exemplu, dacă am măsurat distanţa în centimetri, ştim că o
putem transforma în inch prin aplicarea unei reguli, fără a altera semnificaţia valorilor.
Sau, în cazul grupului de tinere fete, dacă am măsurat culoarea ochilor şi am atribuit
valorile 1, 2, şi 3 pentru fiecare culoare, vom şti că nu putem calcula media culorii
ochilor grupului, aşa cum putem calcula media de înălţime a acestuia.
Evitarea concluziilor lipsite de sens. De exemplu, dacă azi sunt afară 20 de grade C şi
ieri au fost doar 10, nu putem spune că azi este de două ori mai cald, ci că este cu 10
grade mai cald decât ieri.
Alegerea procedurilor statistice adecvate datelor numerice şi scopurilor pe care ni le
propunem. De exemplu, nu vom putea alege proceduri de tip„metric” (cantitativ) atunci
când variabila dependentă este de tip „non-metric” (calitativ).

2.2.3. Niveluri (scale) de măsurare

Statistica operează cu valori, numerice sau de altă natură, care rezultă dintr-un proces
de măsurare. Dar numerele, deşi au aceeaşi formă, nu sunt asemănătoare unele cu
altele. Ele pot avea diferite semnificaţii sau proprietăţi în funcţie de tipul de măsurare din
care rezultă. În funcţie de cantitatea de informaţie pe care o reprezintă valorile, ca rezultat
al procesului de măsurare, putem distinge mai multe tipuri de scale de măsurare
(Stevens, 1946): nominală, ordinală, de interval şi de raport. Aceste scale trebuie

30
înţelese ierarhic, ordonate după anumite criterii care se referă la sistemul de măsurare,
astfel încât, fiecare scală include criteriile tuturor scalelor inferioare.

2.2.3.1. Scala nominală

O măsurare pe scală nominală înseamnă, de fapt, a plasa obiectele în diferite clase. În


acest caz, o valoare nu este cu nimic mai mare sau mică decât altă valoare. Un exemplu
la îndemână este „valoarea” atribuită genului. Ea poate fi codificată cu „M” sau „F”, ori,
la fel de bine cu „2” sau „1”. În acest caz, respectivele „valori” nu sunt decât simboluri
ale unei anumite calităţi pe care o ia caracteristică de gen a unei persoane. Cu alte
cuvinte, într-un asemenea caz 2 nu înseamnă că este „mai mult” sau „mai bun” decât 1
ci doar faptul că este „diferit” de acesta. Vom observa că ambele codificări de mai sus
sunt arbitrare, în locul lor putând utiliza orice alte simboluri, pe o baza de convenţie.
Variabilele măsurate pe scale de tip nominal pun în evidenţă diferenţe calitative între
valori şi nu cantitative. Alte exemple de variabile exprimate pe scale nominale: bolile
psihice (paranoia, depresie, nevroză etc), tipurile temperamentale (sanguin, coleric,
flegmatic, melancolic), specialitatea universitară (psihologie, chimie, matematica etc),
lateralitatea (dreptaci, stângaci), religia (ortodox, catolic etc).

Valorile de tip nominal pot fi, la rândul lor, de două feluri:

De identificare, atunci când o valoare are rolul de codificarea identităţii, referindu-se în


mod unic la o anumită persoană (codul numeric personal, sau un număr de identificare
în cadrul unui experiment psihologic, de ex.). Această formă este nerelevantă din punct
de vedere propriu-zis statistic, dar este extrem de utilă ca variabilă ajutătoare în
manipularea şi organizarea datelor pentru prelucrare.
Categoriale, atunci când desemnează forme pe care le ia o variabilă (tipul de liceu
absolvit: „teoretic”, „industrial”, „artistic”; tipurile temperamentale: „sanguin”, „coleric”,
„flegmatic”, „melancolic” etc.). Această formă este în mod obişnuit întrebuinţată în
psihologie, ori de câte ori este necesară repartizarea subiecţilor în diverse clase sau
categorii, în funcţie de prezenţa sau absenţa anumitor caracteristici.

31
Valorile măsurate pe o scală de tip nominal au un caracter calitativ şi nu suportă operaţii
numerice, altele decât cele de sumarizare (numărare, procente).

2.2.3.2. Scala ordinală

Valorile plasate pe o scală de tip ordinal au o anumită semnificaţie cantitativă. O


anumită valoare este “mai mare” sau “mai bună” decât alta, aflată sub ea. Implicit, ea
poate fi “mai mică” sau mai “puţin bună” decât altă valoare, aflată deasupra ei. Dacă o
anumită persoană este mai preferată decât alta, şi atribuim primei valoarea 1 iar celei
de-a doua valoarea 2, atunci cele două valori se exprimă pe o scală de tip ordinal, care
indică doar ordinea preferinţei şi nu măsura intensităţii acestei preferinţe. Să ne imaginăm
că am avea, pe aceeaşi scală de evaluare, un număr de 6 indivizi. Cel care s-ar plasa pe
scala de preferinţe pe poziţia a 6-a, nu ar fi de şase ori mai preferat ci doar pe a şasea
poziţie pe scala de preferinţe. Un alt exemplu ilustrativ ar putea fi evaluarea satisfacţiei
profesionale pe o scală cu 10 trepte, unde 10 ar fi nivelul de satisfacţie cel mai ridicat.

Pe o scală de tip ordinal putem şti că 2 înseamnă o satisfacţie mai mare decât 1, sau că
10 este mai mare decât 9, fără a putea spune cu cât. Mai mult, nu putem şti nici dacă
distanţa dintre 1 şi 2 este egală sau nu cu distanţa dintre 9 şi 10. Exemple: ordinea de
rang la nivelul unui anumit grup în funcţie de ierarhia notelor şcolare, ordinea la
naştere.

Variabilele ordinale pot fi şi ele de tip categorial, atunci când grupurile definite de valorile
variabilei pot fi aranjate într-o ordine naturală. De exemplu: valorile asociate vârstei
astfel: 1=20-30 de ani, 2=31-40 de ani, 3=41-50 de ani, sau apartenenţa la o anumită
categorie valorică, rezultată prin evaluarea la un examen cu calificative (foarte bun, bun,
mediu, rău, foarte rău).

În concluzie, numerele de tip ordinal ne spun dacă o valoare este mai mare sau mai
mică decât alta, dacă o anumită calitate este prezentă într-o măsură mai mare sau mai
mică, fără a putea preciza care este „diferenţa de cantitate” a caracteristicii măsurate.
Ca urmare, valorile de tip ordinal au, ca şi cele de tip nominal, o semnificaţie calitativă şi
nu una cantitativă.

32
2.2.3.3. Scala de interval

O variabilă măsurată pe o scală de interval ne oferă informaţii nu doar despre ordinea


de mărime, ci şi despre „dimensiunea” exactă a caracteristicii măsurate. Valorile de
acest tip au un caracter cantitativ, exprimat numeric, iar intervalele dintre ele sunt
egale.

Exemple:

-temperatura, măsurată pe o scală Celsius. Dacă într-o zi se măsoară 5 grade iar în ziua
următoare 10 grade, se poate spune cu precizie că a doua zi a fost cu 5 grade mai cald;

-coeficientul de inteligenţă măsurat, să zicem, prin numărul de răspunsuri corecte la un


test. În acest caz, un rezultat de 30 de răspunsuri corecte este cu 10 unităţi mai mare
decât 20 sau cu 5 unităţi mai mic decât 35;
-scorurile la testele de personalitate.
Ceea ce este caracteristic valorilor măsurate pe scală de interval este absenţa unei valori
0 absolute. Cu alte cuvinte, valorile de acest tip nu ne permit evaluări de genul: „O
temperatură de 10 grade este de două ori mai mare decât una de 5 grade” sau, „O
persoană care a obţinut un scor de 30 de puncte este de două ori mai inteligentă decât
una care a obţinut 15 puncte”. Aceasta, deoarece nici temperaturile măsurate pe scala
Celsius şi nici inteligenţa nu au o valoare 0 absolută (dacă acceptăm că nici un om viu
nu are inteligenţă nulă).

Posibilitatea măsurării pe scale de interval în psihologie face adesea obiectul unor


controverse. Aceasta, mai ales din cauză că cele mai multe dintre variabilele psihologice
sunt expresia unor evaluări subiective, fapt care face greu de demonstrat egalitatea
intervalelor dintre două valori consecutive. Uneori, chiar şi în cazul unor măsurători
extrem de exacte este dificil de asumat acest lucru. De exemplu, dacă măsurăm
„iubirea” la un eşantion de cupluri care se plimbă, prin durata „ţinerii de mână”, nu
putem fi siguri că diferenţa de „iubire” dintre cei care se ţin de mână 10 minute şi cei care
se ţin de mână 20 de minute este aceeaşi ca în cazul diferenţei dintre 20 şi 30 de

33
minute. Cu toate acestea, multe dintre măsurătorile studiilor psihologice sunt asimilate
scalei de tip interval.

2.2.3.4. Scala de raport

Valorile exprimate pe o scală de raport deţin cel mai înalt grad de măsurare. Pe lângă
egalitatea intervalelor, specifică scalei de interval, acest tip de valori se raportează şi la
o valoare 0 absolut (nu este posibilă nici o valoare mai mică de 0). Din acest motiv, este
permisă aprecierea raportului dintre două valori.

Exemple:

-dacă ne referim la temperaturi, atunci scala Kelvin, este un bun exemplu (0 Kelvin este
temperatura minimă absolută);
-timpul;
-numărul de răspunsuri corecte sau de erori, la un test psihologic.
În psihologie puţine sunt variabilele acceptate ca fiind măsurate pe scală de raport,
deoarece sunt puţine situaţiile în care avem de a face cu caracteristici ce pot lua valoarea
0 absolut.

La fel ca şi valorile măsurate pe scale de interval, valorile măsurate pe scală de raport


suportă toate transformările matematice posibile. Din acest motiv, în practică, valorile
măsurate pe scală de interval sau de raport sunt considerate similare, fiind prelucrate
prin acelaşi gen de proceduri statistice. Ca urmare, în acest caz, se spune că o variabilă
este măsurată pe o „scală de interval/raport”.

Dacă luăm în considerare proprietăţile numerice şi tipul de transformări suportate de


fiecare scală de măsurare, atunci ordinea crescătoare a acestora este nominal-ordinal-
interval-raport. Din acest punct de vedere se poate chiar spune că scalele de măsurare
se plasează pe o scală ordinală.

2.2.4. Variabile categoriale

O variabilă se numeşte categorială atunci când valorile acesteia descriu categorii.


Exemplul cel mai la îndemână îl reprezintă variabilele nominale categoriale; genul

34
(masculin/feminin), temperamentul (coleric, sanguin, flegmatic, melancolic) etc. Dar
variabilele categoriale pot fi şi de altă natură decât nominale. De exemplu, categoriile de
vârstă 1(21-30 de ani), 2 (31-40 de ani) şi 3 (41-50 de ani) reprezintă valori de nivel
ordinal, deoarece implică o măsurare ordonată în funcţie de timpul scurs de la naştere.

Cu toate acestea, valorile 1, 2, 3 ( alese arbitrar) au un caracter categorial deoarece


atribuirea valorii 1 unei persoane indică faptul că respectiva persoană face parte din
celor care au între 21 şi 30 de ani. Rezultă astfel că variabilele categoriale pot fi atât de
tip nominal, cât şi de tip ordinal.

Dar chiar şi variabilele măsurate pe scală de interval sau de raport pot avea uneori un
caracter categorial. Să ne imaginăm că un psiholog doreşte să studieze relaţia dintre
nivelul agresivităţii şi capacitatea cilindrică a motorului maşinii personale. După cum
ştim, capacitatea cilindrică, măsurată în centimetri cubi (nivelul de raport), este un
indicator al puterii motorului. Având în vedere obiectivele cercetării, el poate alege trei
grupe de subiecţi: proprietarii de maşini cu cilindri de 1.100 cmc; proprietarii de maşini
cu cilindri de 1.500 cmc şi proprietarii de maşini cu cilindri de 2.000 cmc. În acest caz,
valorile 1.100,1.500 şi 2.000 sunt de nivel de raport, dar şi categoriale. Desigur, dacă
atribuim fiecăreia dintre ele un cod (de exemplu, 1, 2, 3), atunci avem o variabilă
categorială ordinală.

Categoriile trebuie să se excludă reciproc (să nu existe cazuri care pot face parte din
mai mult de o singură categorie) şi să fie exhaustive (trebuie să acoper4e întreaga plajă
de posibilităţi la nivelul populaţiei studiate, pentru a nu rămâne cazuri neanalizate)l.

În acest punct al prezentării, distincţia variabilelor categoriale nu pare să aibă o


importanţă practică evidentă, dar odată cu aprofundarea studiului statisticii vom
descoperi că există proceduri statistice special destinate analizei acestora. Din acest
motiv este important să recunoaştem variabilele categoriale.

35
2.2.5. Scale de măsurare, exemple comentate

Deoarece, uneori, scalele de măsurare sunt dificil de înţeles şi, mai ales, pentru că
operarea unei distincţii clare între acestea este de importanţă crucială pentru operarea
cu procedurile statistice, vom analiza în continuare câteva situaţii concrete.

a) Avem o variabilă numerică (să zicem coeficientul de inteligenţă, măsurat în unităţi


QI), pe care o transformăm în clase sau categorii (frecvenţe grupate). Asta
presupune că am creat o nouă variabilă care prezintă o altă valoare (cea atribuită
clasei) corespunzătoare fiecărei valori „originale”. De exemplu, pentru orice
valoare QI între 85-89, atribuim valoarea convenţională „1”, pentru valorile
cuprinse între 90-94, atribuim valoarea „2”, ş.a.m.d.
b) Întrebarea este, pe ce scală sunt reprezentate valorile corespunzătoare claselor
de frecvenţe grupate?
Răspuns: ordinală categorială

Argumente:

1.Valorile atribuite claselor reprezintă simple „denumiri” („etichete”, identificatori


numerici) ale acestora. Cu toate acestea, ele sunt legate de proprietăţile
cantitative ale caracteristicii măsurate, care prezintă o variaţie cantitativă ordonată
natural. În acelaşi timp, utilizarea pentru acest tip de variabilă a procedurilor
statistice tipice pentru variabilele categoriale, nu este greşită.
2.Valorile corespunzătoare grupelor de frecvenţă nu au proprietăţi aritmetice. Nu
putem calcula, în mod legitim, media lor, de exemplu.
c) Pe ce scală sunt reprezentate notele şcolare? Să observăm caracteristicile notelor
şi al modului de acordare:
1.După regulamentul şcolar, notele se dau prin raportare la o grilă de apreciere a
cunoştinţelor care defineşte, chiar dacă destul de vag, nivelul de cunoştinţe
corespunzător fiecărei note, de la 1 la 10;
2.În principiu, atunci când profesorul pune nota, el trebuie să se raporteze la
această „grilă” şi nu la felul în care a răspuns elevul prin comparaţie cu un altul
sau cu restul clasei.

36
3.Ca urmare, teoretic, scala de măsurare este de interval. Chiar dacă nota 0 ar
putea fi considerată ca absenţă totală a cunoştinţelor, ea nu este oficial inclusă în
sistemul de notare, deci nu putem lua în considerare o scală de raport
4.În practică, ştim că notele se acordă pe o dublă bază, una prin raportare la
criteriul impus de manual şi alta, prin comparaţia, inevitabilă, pe care profesorul o
face între elevi. Formal, suntem nevoiţi să ne ghidăm după criteriul „oficial”. În
plus, notele au proprietăţi aritmetice recunoscute (se poate face media lor).
5.Totuşi, în ciuda faptului că sunt măsurate pe o scală de interval, adesea se
preferă prelucrarea lor statistică cu proceduri neparametrice din cauza
amplitudinii mici şi formei anormale a distribuţiei (fapt care nu schimbă natura
„metrică” a scalei).
d) Avem un chestionar de evaluare a atitudinii faţă de risc, să zicem. Fiecare
item(întrebare) este de forma: În ce măsură sunteţi atras de experienţe noi,
neobişnuite, cu răspunsurile: Foarte mică măsură (1), Mică măsură (2), Oarecare
măsură (3), Mare măsură (4), Foarte mare măsură (5).
1.În acest caz, ce scală de măsurare statistică se utilizează? Desigur, ordinală.
Argument: fiecare valoare are semnificaţie prin raportare la celelalte şi nu ca
valoare în sine.
Dar, chestionarul nostru conţine, să zicem, 30 de itemi similari cu cel de mai sus.
Pentru fiecare răspuns subiectul primeşte un punctaj egal cu valoarea asociată
(între paranteze). La urmă, se calculează un scor de risc care exprimă preferinţa
pentru risc a fiecărui subiect.
2.Pe ce scală se consideră variabila scor de risc?
Există controverse teoretice cu privire la răspunsul la această întrebare. Totuşi,
răspunsul uzual este „scală de interval” dar există şi cercetători care consideră că
răspunsul cel mai adecvat este „scală ordinală”.
Argumente pentru „scală de interval”:
- Valorile variabilei scor de risc nu rezultă prin comparaţia uneia cu cealaltă, ci
prin adiţionarea „punctajului” realizat de fiecare subiect, pe baza unei reguli
identice pentru toţi („etalon extern”).

37
- Scorul astfel obţinut se compune din unităţi (puncte) abstracte, „egale” între
ele. Ca urmare, cu acest scor se pot efectua transformări aritmetice uzuale.

2.2.6. Erori de măsurare

Orice măsurare vizează caracteristicile obiectelor sau fenomenelor studiate, fie că ele
sunt de natură fizică sau psihică. Coeficientul de inteligenţă exprimă o proprietate
funcţională de natură intelectuală a persoanei, după cum frecvenţa cardiacă exprimă o
proprietate funcţională fiziologică a inimii. Atât numărul care exprimă inteligenţa, cât şi
cel care exprimă frecvenţa cardiacă, în ciuda formei lor cifrice exacte, nu sunt însă
niciodată indicatori exacţi ai celor două realităţi. Şi aceasta din cel puţin două motive:
pentru că nu putem cunoaşte întotdeauna semnificaţia numerelor şi pentru că niciodată
nu putem şti cât de exact este rezultatul măsurării în raport cu realitatea supusă acestui
proces (Vasilescu, 1991). De exemplu, printr-un test de inteligenţă putem obţine o
valoare 115, care exprimă scorul unei persoane. Acest lucru descrie performanţa la test
şi permite comparaţia cu alte persoane care au efectuat acelaşi test, dar nu putem
spune că exprimă „cantitatea de inteligenţă” a acelei persoane. Mai mult decât atât,
valoarea măsurată este susceptibilă la numeroase surse de imprecizie, de la
imperfecţiuni ale testului(erori de editare grafică până la influenţe ale unor factori ai
mediului de testare (zgomot, disconfort termic), ai situaţiei de testare (calitatea
instructajului, atitudinea examinatorului) sau ai dispoziţiei individuale ( oboseală,
emotivitate, motivare). Dar nu numai caracteristicile psihice sunt afectate de astfel de
surse de imprecizie. Dacă revenim la exemplul frecvenţei cardiace, valoarea acesteia
este, la rândul ei, influenţabilă de efortul fizic, condiţia somatică generală, emoţii etc.
Mai mult, măsurarea aceleiaşi caracteristici la aceeaşi persoană în momente diferite
poate produce valori distincte. La prima vedere aceste observaţii sunt descurajante
pentru cercetătorul care caută să afle adevăruri legate de inteligenţă sau frecvenţa
cardiacă. Statistica însă oferă posibilitatea de a surprinde, dincolo de imprecizia inerentă
a valorilor rezultate în urma procesului măsurării, aspectele caracteristice, invariante ale
realităţii studiate.

38
În conformitate cu modelul promovat de teoria măsurării (Trochim, 2000), orice valoare
(X) rezultată din măsurare este compusă din valoarea adevărată (True score) şi o
anumită cantitate de eroare (Error). Acest lucru se poate formaliza astfel:

Ponderea valorii adevărate şi cea a erorii nu vor putea fi niciodată ştiute, dar, conform
modelului teoretic, ele sunt prezente în orice măsurare. Atunci când aplicăm un test de
inteligenţă, de exemplu, rezultatul reflectă că nu doar inteligenţa („scorul adevărat”) ci
şi alte aspecte, cum ar fi starea de disponibilitate fizică, motivaţia, echilibrul emoţional
etc. („erori”). Este de datoria cercetătorului să se asigure că influenţa factorilor
”exteriori” inteligenţei este cât mai mică posibil, dacă doreşte să obţină concluzii corecte
în raport cu valorile rezultate. La rândul ei, eroarea de măsurare este de două feluri:
eroare aleatorie (eA) şi eroare sistematică (e s ), ceea ce permite ca formalizarea
anterioară să poată fi rescrisă astfel:

X = T + (eA + es )
eroare aleatorie eroare sistematică

Figura nr. 2.1. Reprezentarea erorilor – modelul ţintei (apud Marian Popa)

2.2.6.1. Erori aleatorii

Definim drept aleatorie eroarea produsă de surse care ar putea afecta valorile măsurate
fie într-un sens crescător faţă de scorul adevărat, fie într-un sens descrescător faţă de
acesta. De exemplu, în cazul unui test de calcul aritmetic, pe lângă nivelul abilităţii
numerice (A), rezultatul poate fi influenţat şi de starea fizică a subiecţilor, unii subiecţi
pot fi mai odihniţi, fapt care determină un plus de performanţă, în timp ce alţii pot fi mai
obosiţi, ceea ce determină o anumită diminuare a performanţei. Dacă dispoziţia fizică se

39
distribuie aleatoriu în rândul subiecţilor testaţi, atunci erorile prin adaos de performanţă
vor fi contrabalansate de erorile prin plus de performanţă, ceea ce conduce, în
ansamblu, la diminuarea efectului erorii. În cazul ideal al unor erori absolut aleatorii,
suma erorilor pozitive o egalează pe cea a erorilor negative, ceea ce conduce la
anihilarea erorii pe ansamblul grupului măsurat. În acest fel, eroarea, deşi afectează
valorile individuale, nu are un efect consistent asupra grupului. În realitate, ne
confruntăm însă cu două aspecte:

1.Eroarea nu are niciodată un caracter absolut aleatoriu. Singura soluţie pe care


cercetătorul este de identifica sursele de eroare nealeatorii şi de a încerca reducerea
şansei de manifestare. În exemplul dat, se poate avea în vedere, de exemplu,
eliminarea din grupul cercetat al subiecţilor care declară că au călătorit cu trenul în
noaptea dinaintea testării.

2.Eroarea aleatorie nu are o sursă unică. În cazul nostru, mai putem lua în considerare
motivaţia, tensiunea emoţională etc., al căror efect se poate cumula cu fizică. Drept
dispoziţia urmare, trebuie să limităm, pe cât posibil, orice sursă identificabilă de eroare.

Să reţinem totuşi cea mai importantă proprietate a erorii aleatorii, aceea de a nu afecta
media eşantionului de cercetare, deşi influenţează valorile individuale. Din acest motiv,
eroarea aleatorie mai este denumită şi „zgomot de măsurare”.

2.2.6.2. Erori sistematice

Dacă eroarea aleatorie poate afecta valorile în orice sens, eroarea sistematică le
afectează într-un anumit sens (mai mare sau mai mic), faţă de scorul adevărat. Ea este
determinată de orice factor care are un efect, direct sau indirect, asupra măsurării. De
exemplu, dacă în sala de testare pătrund zgomote din exterior, atunci acestea ar putea
interfera cu performanţa la test (scorul adevărat). În acest caz de aşteptat ca fiecare
dintre valorile măsurate să fie afectate într-o oarecare măsură. Spre deosebire de
eroarea aleatorie, eroarea sistematică tinde să orienteze într-un anumit sens valorile, fie
prin creşterea, fie prin scăderea lor, în funcţie de natura situaţiei. Eroarea sistematică
mai este denumită şi bias. Diferenţa dintre erorile aleatorii şi sistematice poate fi

40
ilustrată prin analogie cu trasul la ţintă. În figura de mai jos, imaginea din stânga
reprezintă o împrăştiere aleatorie a loviturilor în jurul centrului („scorul adevărat”).
Imaginea din dreapta ilustrează împrăştierea cauzată de o eroare sistematică, în care
loviturile sunt departe de centrul ţintei, dar grupate într-o anumită zonă a acesteia (care
poate fi generat de o deficienţă de vedere a trăgătorului sau de o eroare de fixare a
cătării armei).

Expresia X = T + E descrie situaţia unei anumite valori măsurate, dar putem să privim
lucrurile şi prin prisma tuturor valorilor măsurate. În acest caz, fiecare componentă a
expresiei poate fi descrisă prin variabilitatea ei (diferenţele între valorile respective
existente la fiecare caz în parte). Ca urmare, expresia scorului adevărat poate fi
exprimată sub forma:

Var(X) = var(T) + var(E)

Această nouă expresie pune accentul pe sursa variabilităţii valorilor, ce provine din

variabilitatea scorului adevărat, diferit de la un subiect la altul, la care se adaugă


variabilitatea datorită erorii, de asemenea diferită de la un subiect la altul. Asemenea
cazului valorilor T şi E, nici variabilitatea datorată lor nu poate fi cuantificată (sau, după
cum spune Trochim, 2006, „numai dumnezeu poate şti) dar modelul teoretic este

important pentru fundamentarea teoriei fiabilităţii datelor de măsurare (gradul în care


măsurări repetate ale aceleaşi realităţi produc aceleaşi valori).

2.3. Statistica parametrică şi statistica neparametrică


Esenţa procedurilor statistice este verificarea ipotezelor. Aceasta se face prin utilizarea
unor proceduri de calcul care urmăresc punerea în evidenţă a legăturilor dintre variabile.
Atunci când aceste proceduri se aplică unor situaţii în care variabilele dependente sunt
de tip cantitativ (interval/raport), procedura se numeşte „parametrică”. Prin opoziţie,
procedurile aplicate în cazul în care variabilele dependente sunt de tip „calitativ”
(nominale sau ordinale) se numesc „neparametrice”. Alegerea procedurilor statistice
este un proces destul de complicat, care va fi discutat frecvent mai departe şi care va fi
pe deplin înţeles numai după finalizarea cursului şi dobândirea unei anumite practici în

41
utilizarea procedurilor statistice. Pentru început, considerăm suficientă o prezentare
generală a celor două categorii de proceduri statistice.

Tabelul 2.1. Tablou recapitulativ al scalelor de măsurare, cu statisticile


adecvate

Proceduri
SCALE CALITATIVE statistice
adecvate
I. NOMINALE
Valorile sunt expresia denumirii unei caracteristici a

1.1. variabilei care se referă la un singur”individ” (CNP-ul,

Identitate numărul de înregistrare, numele etc.)


NEPARA-

Valorile sunt expresia, denumirii unei caracteristici a METRICE

variabilei care priveşte “un grup de subiecţi” (tipul


1.2. temperamental, firea, tipul de personalitate, o categorie
Categorie de boli psihice etc.
O anumită valoare nu spune nimic despre celelalte
valori.
2. ORDINALE
Nivelurile variabilei exprimă doar ordinea unora faţă de celelalte.
Lungimea intervalelor dintre valori este incertă, subiectivă. O anumită
valoare ne spune că există valori mai mari sau mai mici decât ea, dar
nu şi care este dimensiunea acestei diferenţe dintre valori ( de NEPARA-

exemplu, în ce măsură îţi plac petrecerile în aer liber cu colegii: f. METRICE

puţin, puţin, mult, f. mult).


Atribuirea unei valori se face în comparaţie cu alte valori, şi nu prin
raportare la un criteriu extern, bine definit (“obiectiv”).

42
Nivelurile sunt egal distribuite, adică, o unitate într-o
zonă a scalei este egală cu o unitate din orice altă zonă
a scalei. Definesc o anumită caracteristică prin raportare
la un “etalon extern” cel care garantează echivalenţa PARAME-
1.Interval
intervalelor (de exemplu: scala termometrului, TRICE (dacă
cronometrului, notele sau cotele standardizate ale sunt
testelor psihologice). respectate
anumite
La fel ca mai sus, cu specificaţia că nivelurile variabilei condiţii)
nu sunt doar egal distribuite, ci există şi un zero
2. Raport absolut, adică valoarea ce indică absenţa totală a
caracteristicii măsurate.

2.4. Scale de măsurare şi variabile


Din perspectiva măsurării, variabila se referă la o caracteristică supusă măsurării, în timp
ce scala se referă la modalitatea de măsurare. Uneori aceeaşi variabilă (caracteristică)
poate fi măsurată pe oricare dintre tipurile de scală. De exemplu, timpul de reacţie poate
fi exprimat pe o scală nominală („corespunzător”, „necorespunzător”), pe o scală
ordinală („mic”, „mare”, „mediu”, „foarte mare”) sau pe o scală de interval/raport (în
unităţi de timp). Uneori se foloseşte expresia „variabilă nominală”, („ordinală” sau „de
interval”). Fără a fi greşită, atunci când folosim o astfel de exprimare trebuie să ne
gândim că ea trebuie înţeleasă de fapt ca „variabilă măsurată pe o scală nominală...
etc.”, scala de măsurare şi variabila fiind noţiuni diferite!

Să reţinem, de asemenea, faptul că valorile măsurate pe o scală de nivel superior


(cantitativ), pot fi convertite în valori măsurate pe scale calitative. Niciodată, însă, nu
vom putea transforma valori calitative în valori cantitative. Atunci când există
posibilitatea de a alege, se va prefera întotdeauna măsurarea pe o scală cantitativă
(interval/raport).

43
2.5. Studii experimentale/studii corelaţionale (de covarianţă)
Exemplele de mai sus ridică o problemă delicată, aceea a legăturii cauzale dintre
variabile. Modul de formulare a exemplelor prezentate poate sugera ideea că în cazurile
respective am putea face aprecieri de natură cauzală: „relaxarea cauzează creşterea
performanţei”, „fumatul are efecte asupra stării emoţionale”. În realitate, aceste afirmaţii
nu sunt de loc justificate prin simpla utilizare a unor proceduri statistice, oricât de
precise sau de sofisticate ar părea acestea.

Cronbach (1957) face distincţie între două „discipline psihologice”, de fapt, între două
metode de abordare a cunoaşterii în psihologie, metoda experimentală şi metoda
corelaţională. În cazul studiilor experimentale, cercetătorul nu se limitează la măsurarea
variabilei independente, ci o şi manipulează. De exemplu, dacă analizăm rezultatele a
două grupe de trăgători la ţintă, unii care au efectuat în prealabil şedinţe de relaxare şi
alţii care nu au efectuat, avem de a face cu un studiu numit „corelaţional”. Pe baza lui
putem constata dacă există o legătură între cele două variabile, dar în nici un caz dacă
relaxarea determină („cauzează”) creşterea performanţelor. Rezultatele ar putea fi
influenţate pur şi simplu prin efectul de mobilizare suplimentară pe care îl creează
includerea subiecţilor într-un program de studiu. Dacă dorim să fim absolut siguri de
relaţia cauzală dintre exerciţiile de relaxare şi performanţa ţintaşilor, iniţiem un studiu
experimental, în care „controlăm” variabila relaxare. În acest scop, putem evalua
performanţa trăgătorilor la ţintă în zilele în care au efectuat relaxare, comparativ cu zilele
în care nu au efectuat relaxare, având grijă să nu intervină alte variabile care să
influenţeze rezultatele. Concluziile unui astfel de studiu pot fi interpretate în mod cauzal.

În cazul studiilor numite corelaţionale, variabilele dependente şi independente sunt


măsurate în condiţii care nu permit inferenţe de tip cauzal. Aplicarea unui test de
personalitate unor categorii de subiecţi (diferenţiate prin sex, vârstă, de ex.),
compararea rezultatelor între categorii şi constatarea existenţei unor diferenţe, fie şi
semnificative statistic, nu înseamnă că personalitatea este „influenţată” de apartenenţa la
o anumită categorie. Totuşi, rezultatele studiilor „corelaţionale” pot fi interpretate uneori

44
în termeni cauzali, utilizând teorii existente sau ipoteze, dar astfel de rezultate nu pot
constitui în nici un caz o dovadă a unei relaţii de tip cauzal.

În psihologie, ponderea studiilor corelaţionale este mult mai mare decât a celor
experimentale, care sunt mai pretenţioase şi mai dificil de realizat. Ceea ce nu înseamnă
că studiile „corelaţionale” nu sunt relevante. Ar trebui să mai adăugăm ideea că prin
studiu „corelaţional” nu se înţelege o cercetare în care se utilizează „coeficientul de
corelaţie”, care este doar unul dintre testele statistice, şi despre care vom mai târziu, ci
utilizarea oricărui tip de test statistic care urmăreşte punerea în evidenţă a legăturii dintre
variabile, fără ca datele cercetării să fi fost obţinute într-un context experimental. Pentru
evitarea confuziei, unii autori folosesc termenul de „studiu observaţional” în loc de
„corelaţional” (Runyon et. al, 1996).

2.6. Populaţie/eşantion
Obiectivul legitim al cercetării ştiinţifice este identificarea unor adevăruri cu un anumit
grad de generalitate. Din punct de vedere statistic „generalul” este reprezentat de
totalitatea valorilor care descriu o anumită caracteristică, şi este numit „populaţie”. Din
păcate însă, investigarea tuturor „indivizilor” (valorilor) care compun o anumită populaţie
nu este aproape niciodată posibilă. Ca urmare, în practica cercetării ştiinţifice se supun
cercetării psihologice loturi mai restrânse, extrase din ansamblul colectivităţii vizate, ai
căror parametri descriptivi (medie, variabilitate), despre care vom vorbi mai târziu, sunt

45
extrapolaţi, în anumite condiţii şi cu ajutorul unor proceduri specializate, la populaţia din

P a r a m e tr i i p o p u l a t i e i
2
I n d ic a t o r i i µ
m s s
e s a n tio n
e s a n t io n u l u i s2
e s t im e a z a
s

care fac parte.

A fundamenta un adevăr statistic înseamnă a trage o concluzie care descrie parametrii


unei populaţii de valori, pe baza indicatorilor unui eşantion din acea populaţie.

În contextul cercetării statistice utilizăm următoarele definiţii:

Populaţie, totalitatea „unităţilor de informaţie” care constituie obiectivul de interes al


unei investigaţii. Prin „unităţi individuale de informaţie” înţelegem cel mai adesea
„persoane” (sau „subiecţi”, cu un termen uzual in cercetarea psihologică). Dar, la fel de
bine, putem înţelege şi „populaţia de cupluri familiale”, sau „populaţia” de diferenţe
dintre mediile a două variabile, de exemplu. În esenţă, prin „populaţie” trebuie să
înţelegem extinderea maximă posibilă, sub aspectul volumului, a respectivei „unităţi de
informaţie”. Extinderea menţionată este, la rândul ei, definită prin obiectivul de
cercetare, ceea ce înseamnă ca are o dimensiune subiectivă. Aceasta se referă la
domeniul de interes pe care şi-l propune cercetătorul. De exemplu, într-un studiu cu
privire la efectul oboselii asupra performanţei cognitive, pot fi vizate diferite categorii de
„populaţii”: a aviatorilor, a studenţilor, a mecanicilor de locomotivă, a şahiştilor etc. Este
de la sine înţeles faptul că, încă de la începutul unei cercetări ştiinţifice, se va preciza
populaţia cercetării, cu alte cuvinte, domeniul de extindere a rezultatelor şi a concluziilor
ce urmează a fi trase.

46
Eşantion, reprezintă „unităţile de informaţie” selecţionate pentru a fi efectiv studiate.
Ideea pe care se bazează cercetările bazate pe eşantioane, este aceea că se pot face
aprecieri asupra unei întregi populaţii, în anumite condiţii, doar pe baza caracteristicilor
măsurate pe o parte a acesteia.

Exemple:

Într-un studiu asupra efectelor accesului la internet asupra elevilor de liceu, elevii de
liceu reprezintă „populaţia”, iar elevii selecţionaţi pentru investigaţie, „eşantionul”.
Într-un studiu care vizează influenţa inteligenţei asupra performanţei în instruirea de
zbor, populaţia este reprezentată de toţi piloţii, iar eşantionul, de subiecţii incluşi în
studiu.
Dacă am reuşi recoltarea datelor cu privire la întreaga populaţie care face obiectul
cercetării, am putea trage concluzii directe cu privire la aceasta prin utilizarea
indicatorilor statistici descriptivi cunoscuţi (medie, dispersie, abatere standard) numiţi şi
„parametrii populaţiei”. Dar acest lucru nu este aproape niciodată posibil şi, ca urmare,
indicatorii statistici ai eşantionului sunt utilizaţi pentru a face estimări, inferenţe, cu
privire la parametrii populaţiei. În esenţă, a testa o ipoteză statistică înseamnă a emite
concluzii asupra unei „populaţii” pe baza rezultatelor obţinute pe un eşantion care
aparţine acelei populaţii. În acest context, demersul ştiinţific presupune următorii paşi:

1. formularea problemei cercetării (sub forma unei întrebări, cu referire la o anumită


populaţie)
2. emiterea unei ipoteze privind cel mai probabil răspuns
3. selectarea unui eşantion
4. aplicarea unei proceduri care sa permită acceptarea sau respingerea ipotezei.

2.6.1. Reprezentativitatea eşantionului

Verificarea statistică a ipotezelor se bazează pe o idee simplă: dacă avem un eşantion a


cărui alegere respectă anumite condiţii, extras dintr-o populaţie oricât de mare,
rezultatele obţinute pe acesta pot fi extrapolate la întreaga populaţie.

47
Calitatea unui eşantion de a permite extinderea concluziilor la întreaga populaţie din care
a fost extras se numeşte reprezentativitate. De fapt, nici un eşantion nu poate
reprezenta perfect datele populaţiei, fiind doar o estimare mai bună sau mai slabă a
caracteristicilor acesteia. De aceea reprezentativitatea are o semnificaţie relativă. Ca
urmare, estimările pe bază de eşantion conţin întotdeauna o doză mai mare sau mai
mică de eroare. Cu cât eroarea este mai mică, cu atât concluziile obţinute pe eşantion
pot fi generalizate mai sigur asupra populaţiei.

Pentru a permite fundamentarea inferenţelor statistice, eşantionul trebuie să fie


constituit din „unităţi de informaţie” (subiecţi, valori etc.) independente unele de altele.
Independenţa valorilor se referă la faptul că fiecare valoare (sau unitate experimentală)
trebuie să fie absolut distinctă de celelalte. În esenţă constituirea unui eşantion trebuie
să evite efectele unor factori sistematici care să interfereze cu obiectivele studiului,
orientând rezultatele într-o anumită direcţie (situaţie desemnată în limba engleză prin
termenul de bias). Câteva exemple:

Dacă măsurăm timpul de reacţie la un număr de cinci subiecţi, dar facem trei evaluări la
fiecare subiect, nu avem eşantion de 15 valori independente, deoarece valorile aceluiaşi
subiect au în comun o „constantă personală” care le face dependente una de cealaltă.
Pentru avea un singur eşantion am putea să utilizăm media celor trei determinări pentru
fiecare subiect.
Dacă dorim să investigăm efectul inteligenţei asupra performanţei şcolare, trebuie să
avem grijă să includem în eşantion subiecţi provenind din familii cu un nivel variat al
veniturilor, pentru a anihila influenţa statutului socioeconomic asupra performanţei
şcolare.
Un studiu asupra atitudinii faţă de utilizarea computerelor în educaţie, poate fi influenţat
în mod sistematic dacă eşantionul este constituit numai din elevi care utilizează frecvent
calculatorul.
În cazul unui sondaj cu privire la intenţiile de vot bazat pe interviul telefonic, vom obţine
rezultate afectate de starea socială a respondenţilor (îşi permit montarea unui telefon)
sau de ora apelului (în orele dimineţii sunt acasă, să zicem, mai multe femei casnice).

48
2.6.2. Eşantionarea

Modul de constituire a eşantionului este decisiv pentru nivelul de reprezentativitate.


Esenţială în acest caz este asigurarea condiţiilor ca acesta să acopere în mod real
caracteristicile populaţiei, evitându-se „favorizarea” sistematică a unor subiecţi
„nereprezentativi”. Fără a intra în amănunte tehnice cu privire la procedurile de
eşantionare iată care sunt, principial, cele mai utilizate metode de constituire a
eşantioanelor:

a) Eşantionare stratificată multistadială . Populaţia se împarte în categorii, fiecare


categorie în subcategorii ş.a.m.d., iar subiecţii sunt selecţionaţi aleator la nivelul
categoriei de nivelul cel mai scăzut. Se obţine astfel un eşantion care reproduce fidel
structura populaţiei.

b) Eşantionare prin clasificare unistadială . Se identifică categorii pe un singur nivel iar


subiecţii se extrag aleator din fiecare categorie.

c) Eşantionare aleatoare. Subiecţii sunt extraşi aleator (la întâmplare) din ansamblul
populaţiei. „La întâmplare”, înseamnă în acest caz utilizarea unei proceduri care asigură
fiecărui subiect al populaţiei absolut aceleaşi şanse de a fi inclus în eşantion. În acest
scop se pot utiliza programe de calculator sau tabele de numere aleatoare.
d)Eşantionare pseudo-aleatoare (haphazard, sau de convenienţă). Sunt utilizaţi subiecţii
„disponibili”. Este cazul cel mai frecvent întâlnit în practică şi, dacă „disponibilitatea” nu
este afectată de un aspect care să influenţeze semnificativ obiectivul cercetării, atunci
reprezentativitatea este acceptabilă.

În concluzie, presupunând că am obţinut anumite rezultate pe un eşantion aleator,


raţionamentul statistic ne permite să aplicăm concluziile la întreaga populaţie din care a
fost extras acel eşantion. Este necesară însă existenţa unei precizări clare a populaţiei
de referinţă pentru că, dincolo de limitele acesteia, extrapolarea nu este permisă. De
exemplu, rezultatele unui studiu asupra atitudinii faţă de internet efectuat pe un
eşantion de studenţi nu poate fi extrapolat la alte categorii sociale, şi nici chiar la alte

49
categorii de studenţi, dacă în eşantionul nostru au intrat numai studenţi de la facultăţi
umaniste, să zicem.

2.7. Statistica descriptivă/statistica inferenţială


Statistica descriptivă se referă la metodele cu ajutorul cărora analizăm caracteristicile
variabilelor statistice. Dacă aplicăm un test de timp de reacţie unui număr de 50 de
persoane, putem calcula valoarea medie a timpilor de reacţie, împrăştierea acestora sau,
utilizând o tehnică de reprezentare grafică, modul în care se distribuie valorile prin
raportare la un sistem de coordonate. Toate aceste prelucrări, şi altele încă, despre care
vom vorbi pe larg mai departe, fac parte din categoria metodelor statisticii descriptive.
În esenţă, cu ajutorul statisticii descriptive ne putem face o imagine cu privire la
caracteristicile unei distribuţii luată în sine, fără a putea emite judecăţi comparative prin
raportare la populaţia din care face parte distribuţia respectivă sau la un alt lot de valori
(eşantion) din aceeaşi populaţie. În ciuda acestor limitări, vom vedea că statistica
descriptivă nu este de loc lipsită de utilitate, ba dimpotrivă, este un pas obligatoriu şi
esenţial pentru statisticile avansate.

Statistica inferenţială cuprinde metodele de verificare a ipotezelor de cercetare prin


testarea ipotezelor statistice. Să presupunem că cei 50 de subiecţi de mai sus sunt
supuşi aceluiaşi test de tip de reacţie în condiţii de noxe de mediu (zgomot excesiv, de
exemplu) pentru a verifica ipoteza că zgomotul reduce promptitudinea reacţiilor. Într-un
astfel de caz statistica inferenţială ne pune la dispoziţie metode specifice prin care să
putem afirma, cu anumită probabilitate, că o eventuală diferenţă dintre media timpilor de
reacţie măsuraţi în cele două condiţii diferă semnificativ sau nu. Din această perspectivă,
statistica devine un instrument indispensabil al cercetării ştiinţifice în domeniul
psihologiei. Aşa cum vom vedea mai târziu, chiar dacă nu permite afirmaţii certe, face
posibilă emiterea de judecăţi şi concluzii cu un grad cunoscut de probabilitate, pe baza
cărora se pot face predicţii şi generalizări utile şi, fapt important, ferite de subiectivism.

Este important să reţinem acum faptul că alegerea statisticii parametrice sau


neparametrice se face pornind de la natura variabilei dependente. Atunci când aceasta

50
este de tip cantitativ, şi nu se abate de la condiţiile impuse de procedura statistică pe
care dorim să o aplicăm, se utilizează teste statistice parametrice. În orice alte condiţii,
se apelează la teste neparametrice. Chiar dacă această distincţie este oarecum dificil de
înţeles în acest stadiu introductiv al discuţiei, este important să fie ţinută minte.

Notă: În psihologie, distincţia dintre scala de interval şi cea de raport rămâne pur
teoretică. Unii autori susţin că, în cazul unui om viu, nici o caracteristică psihologică nu
poate lipsi în mod absolut! Oricum, din perspectiva alegerii tipului de procedură
statistică diferenţa dintre ele nu produce nici un efect.

Ideea fundamentală este aceea că, atunci când variabila dependentă implicată într-un
studiu statistic este măsurată pe o scală de tip calitativ (nominal sau ordinal), se aplică
una dintre procedurile statistice neparametrice. În cazul variabilelor măsurate pe scale
cantitative se aplică, de regulă, statistici parametrice, fără ca acest lucru să fie posibil
întotdeauna.

2.8. Rezumat
1.Statistica este disciplina care se ocupă cu sintetizarea, prezentarea şi analiza datelor
numerice, în scopul evidenţierii semnificaţiilor acestora.
2.Statistica este un instrument al metodei ştiinţifice în psihologie.
3.Componentele metodei ştiinţifice sunt: observaţia – elaborarea ipotezei – analiza
datelor empirice – concluzia
4.Măsurarea înseamnă a atribui numere sau simboluri unor caracteristici ale realităţii
obiective sau subiective, în funcţie de anumite aspecte cantitative sau calitative care le
caracterizează.
5.Măsurarea pe scală nominală, identifică prezenţa unei anumite caracteristici, fără a avea
o semnificaţie cantitativă. Variabilele nominale se referă la caracteristici calitative şi
categoriale.
6.Măsurarea pe scală ordinală, identifică raportul de ordine între valori, fără a preciza
distanţa cantitativă dintre acestea. Variabilele ordinale se referă la caracteristici
calitative.

51
7.Măsurarea pe scală de interval aduce în plus faţă de scala ordinală precizarea distanţei
dintre ranguri. Din acest motiv este o scală de tip cantitativ.
8.Măsurarea pe scală de raport aduce în plus faţă de scala de interval, raportarea la o
valoare minimă absolută.
9.Statistica descriptivă se ocupă cu sintetizarea şi prezentarea datelor.
10.Statistica inferenţială se ocupă cu generalizarea rezultatelor la nivelul populaţiei din
care a fost extras eşantionul.
11.Variabilele dependente sunt cele care fac obiectul interesului direct al cercetătorului,
fiind măsurate în vederea extragerii unei concluzii.
12.Variabilele independente reprezintă condiţia sau contextul din care rezultă valorile
variabilei dependente.
13.Atunci când variabila dependentă implicată într-un studiu statistic este măsurată pe o
scală de tip calitativ (nominal sau ordinal), se aplică una dintre procedurile statistice
neparametrice.
14.În cazul variabilelor măsurate pe scale cantitative se aplică, de regulă, statistici
parametrice, fără ca acest lucru să fie posibil întotdeauna.
15.Studiile de tip corelaţional pun în evidenţă relaţia dintre variabile fără a susţine
concluzii de tip cauzal.
16.Studiile de tip experimental pun în evidenţă relaţii de tip cauzal între variabile.
17.Statistica descriptivă are drept obiective organizarea, sintetizarea şi descrierea
datelor.
18.Statistica inferenţială susţine concluzii cu privire la ipotezele cercetării.

2.9. Exerciţii
1.Daţi câte două exemple de variabile pentru fiecare tip de scală de măsurare.

2.Daţi câte două exemple din fiecare tip de variabilă continuă/discretă,


independentă/dependentă.
3.Într-un studiu asupra efectului laptelui cald consumat seara, înainte de culcare, asupra
timpului până la adormire , care este variabila dependentă şi care este variabila
independentă?

52
4.Daţi un exemplu de variabilă măsurată pe toate cele trei tipuri de scală, precizând
unitatea de măsură.
5.Pe ce scală se exprimă fiecare dintre următoarele variabile:
a)numele subiectului -
b)greutatea (kg) –
c)înălţimea (cm) –
d)sexul (M/F) –
e)sportul practicat –
f)poziţia în clasament –
h)numărul de accidentări –
i)scalele de măsurare:nominală, ordinală, de interval şi de raport-
6.Identificaţi în următoarele exemple scala de măsurare pentru variabilele evidenţiate cu
caractere cursive:
a)Distanţa parcursă de muncitorii unei fabrici de acasă până la locul de
muncă;
b) Numărul de angajări la o firma de construcţii în fiecare
semestru al anului;
c)Numărul de voturi pozitive pe care le primeşte fiecare dintre cei trei candidaţi la un
concurs de conducere.
7.Într-o cercetare se urmăreşte eficienţa a trei metode psihoterapeutice asupra
intensităţii manifestărilor anxioase. Care este variabila dependentă şi care este variabila
independentă?
8. Într-un studiu asupra efectului laptelui cald consumat seara, înainte de culcare,
asupra timpului de adormire, care este variabila dependentă si cea independentă?
9. Un cercetător a aplicat unui eşantion de subiecţi doua chestionare, unul de
sociabilitate si unul de încredere în sine, urmărind să dovedească că persoanele sociabile
au o încredere în sine mai ridicată.
In acest caz:
a)Care este tipul cercetării corelaţional sau experimental?
b)Care este variabila dependentă?

53
c) Care este variabila independentă?
d)Procedura statistică este de tip descriptiv sau inferenţial?
10.Un psiholog raportează că persoanele din eşantionul cercetării au o vârstă medie de
24,5 ani. În acest caz:
a)Care e natura statisticii, inferenţială sau descriptivă?
b)Variabila vârstă este discretă sau continuă?
11.Un psiholog compară nivelul atracţiei pentru risc fizic la un grup de alpinişti şi un
grup de şahişti, descoperind că primii au o predispoziţie mai mare pentru risc. În acest
caz:
a)Care este variabila dependentă?
b)Care este variabila independentă?
c) De ce natură este studiul, corelaţional sau experimental?
d)De ce natură este procedura statistică pe care a utilizat-o, descriptivă sau inferenţială?
12.Menţionaţi cel putin trei indicatori (variabile observate) ale variabilei latente
”sociabilitate”.(Verificaţi răspunsurile corecte la secţiunea 14. Rezolvări şi
explicaţii la exerciţiile din volum, Capitolul 2, exerciţiile 2.9)

Capitolul 3. Statistici descriptive

Statistica descriptivă are drept obiective organizarea, sintetizarea şi descrierea datelor.


În ciuda relativei „simplităţi” a procedurilor descriptive, şi a faptului că ele nu permit în
mod direct concluzii de cercetare, statistica descriptivă este esenţială pentru
fundamentarea procedurilor inferenţiale.

54
Rezultatul măsurării se traduce în obţinerea unei colecţii de date. Să presupunem că am
aplicat un test de cunoştinţe unui grup de 25 de studenţi şi am obţinut următoarele
valori pentru variabila „răspunsuri corecte”:

8, 6, 10, 9, 6, 6, 8, 7, 4, 9, 6, 2, 8, 6, 10, 4, 5, 6, 8, 4, 7, 8, 4, 7, 6

Datele de mai sus reprezintă o „serie statistică”, sau o „distribuţie statistică”, compusă
din 25 de „valori” sau „scoruri”. Fiind rezultatul primar al măsurării, aceste valori se mai
numesc şi „valori brute”. Valorile acestei variabile sunt acceptate ca fiind exprimate pe o
scală cantitativă de raport.

Este evident că, privite sub forma în care se prezintă mai sus, datele respective ne spun
puţine lucruri. Iar dacă ar fi şi mai multe, de ordinul sutelor sau miilor, atunci ar fi
practic imposibil de făcut vreo apreciere, în această formă de prezentare. De aceea,
pentru a ne putea face o imagine mai coerentă asupra unei distribuţii de valori, acestea
trebuie supuse unor operaţii care să scoată în evidenţă caracteristicile distribuţiei.

Tehnicile şi procedurile destinate organizării, prezentării şi descrierii datelor, constituie


ceea ce se numeşte statistica descriptivă. Principalele ei componente sunt:

Tehnici de organizare şi prezentare a datelor, care pot fi:


- numerice (distribuţia de frecvenţe simple sau grupate;)
- grafice (histograme; grafice de tip bară, linie, „plăcintă”, histograma stem-and-
leaf, etc.)
Indicatori numerici descriptivi, care sunt împărţiţi, la rândul lor, în trei categorii:
- indicatori ai tendinţei centrale;
- indicatori ai împrăştierii(variabilităţii, dispersiei)
- indicatori ai formei distribuţiei (simetrie şi aplatizare).
Dincolo de scopul în sine al acestor proceduri, acela de a oferi o imagine sintetică
asupra datelor analizate, trebuie să înţelegem statistica descriptivă şi ca pe o etapă
pregătitoare în fundamentarea procedurilor statisticii inferenţiale (destinată verificării
ipotezelor statistice), despre care vom face referire mai târziu.

55
3.1. Analiza frecvenţelor

3.1.1. Analiza frecvenţelor simple

Dacă ne întoarcem la distribuţia de mai sus, cel mai simplu lucru pe care putem să îl
facem, şi care ne poate da o anumită imagine asupra ei, este sortarea, punerea valorilor
în ordine crescătoare sau descrescătoare:

10, 10, 9, 9, 8, 8, 8, 8, 8, 7, 7, 7, 6, 6, 6, 6, 6, 6, 6, 5, 4, 4, 4, 4, 2

Privind datele aranjate astfel, putem observa cu uşurinţă câteva lucruri: valoarea cea
mai mare (10) şi valoarea cea mai mică (2), precum şi valorile care se repetă. Dar chiar
şi acest mod de prezentare nu ne-ar fi de mare ajutor dacă valorile ar fi într-un număr
mare. Într-o astfel de situaţie datele pot fi aranjate într-un tabel, numit „tabelul
frecvenţelor simple”.

Tabelul 3.1. Frecvenţe simple (absolute)

Valoare Frecvenţe
absolute(fa)
10 2
9 2
8 5
7 3
6 7
5 1
4 4
3 0
2 1
Total Σfa=N=25
Dacă luăm în considerare seria de valori de mai sus, un tabel al frecvenţelor simple
(absolute) este compus din lista valorilor distincte, ordonate descrescător, la care se
adaugă frecvenţa absolută (fa) a fiecărei valori (de câte ori se întâlneşte în cadrul
seriei).

Se observă astfel că datele au un caracter mai ordonat, iar coloana frecvenţelor absolute
scoate în evidenţă anumite aspecte cum ar fi, de exemplu, faptul că cea mai frecventă
valoare este 6 (apare de 7 ori). Observăm că seria de valori din tabel include toate
valorile posibile între valoarea cea mai mare (10) şi cea mai mică (2), incluzând şi

56
valorile care nu se întâlnesc în mod real în cadrul seriei. În cazul nostru avem valoarea
3, cu frecvenţa de apariţie 0. Suma frecvenţelor absolute (Σfa) indică totalul valorilor din
cadrul seriei, adică numărul de subiecţi evaluaţi(N=25).

În practică, pe lângă frecvenţele absolute se iau în considerare şi alte tipuri de frecvenţe


(vezi tabelul 3.2):

Frecvenţa cumulată (fc). Reprezintă totalul valorilor care se cumulează începând de


la valoarea cea mai mică până la valoarea cea mai mare din tabel. De exemplu, în
tabelul sintetic de mai jos, avem 6 valori mai mici sau egale cu 5, 21 de valori mai mici
sau egale cu 8 şi, evident, 25(N) de valori mai mici sau egale cu 10.
Frecvenţa relativă raportată la unitate fr(1). Este raportul dintre frecvenţa absolută şi
suma frecvenţelor absolute (fa/Σfa).
Exemple:

- pentru valoarea 10: fa/Σfa=2/25=0.08;


- pentru valoarea 6: fa/Σfa=7/25=0.13; ş.a.m.d.
Frecvenţa relativă cumulată, raportată la unitate frc(1) este similară
frecvenţei cumulate absolute, cu deosebirea că în acest caz se cumulează
frecvenţele relative.
Exemple:

-dacă privim întreaga serie ca întreg (egală cu 1 sau „unitate” ), atunci toate valorile
mai mici sau egale cu 5 au o frecvenţă cumulată egală cu 0.24 (adică,
fr(1)=0.04+0+0.16+0.04=0.24);
-pentru valoarea 7, frecvenţa relativă cumulată raportată la unitate este:
frc(1)=0.04+0+0.16+0.04+0.28+0.12=0.64
-frecvenţa relativă cumulată pentru valoarea cea mai mare din serie este întotdeauna
1.00 (corespunzătoare în cazul nostru valorii 10).
Frecvenţa relativă procentuală fr(%): Exprimă procentul valorilor care se situează care
corespunde unei anumite valori din cadrul distribuţiei. Se calculează fie prin înmulţirea
fr(1) cu 100, fie prin calcularea directă procentului pe care îl reprezintă o anumită

57
valoare raportat la totalul valorilor dintr-o distribuţie. Suma frecvenţelor relative
procentuale este întotdeauna egală cu 100.
Exemple (tabelul 3.2):

8% dintre studenţii evaluaţi au realizat 10 răspunsuri corecte


28% dintre studenţii evaluaţi au realizat 6 răspunsuri corecte
Frecvenţa relativă cumulată procentuală (frc%) exprimă procentul valorilor dintr-o
distribuţie care se plasează până la o anumită valoare (inclusiv aceasta).
Exemple:

52% dintre studenţi au obţinut o notă egală sau mai mică de 6;


92% au obţinut cel puţin nota 9;
Desigur, pentru valoarea maximă a unei distribuţii, frecvenţa cumulată
procentuală este întotdeauna 100%.
Frecvenţa relativă procentuală cumulată se numeşte rang percentil. Astfel, despre
valoarea 6 din distribuţia de mai sus se poate spune că are rangul percentil 52, adică,
52% dintre valorile unei distribuţii sunt între cea mai mică valoare şi valoarea 6, inclusiv.
 Prin convenţie, rangul percentil se defineşte ca procentajul datelor valorilor dintr-
o distribuţie care se află până la o anumită valoare inclusiv.
 În mod complementar, numim percentilă, valoarea dintr-o distribuţie care
corespunde unui anumit rang percentil. În exemplul de mai sus, rangului percentil 52
îi corespunde valoarea 6, numită, de aceea, percentila 52.
 În practică, există anumite percentile care au o importanţă aparte. Acestea sunt
percentilele corespunzătoare rangurilor percentile cu valorile 10, 20, 30,..., 100.
Despre semnificaţia lor vom vorbi mai târziu în acest curs. De asemenea, se utilizează
termenul de quartile pentru percentilele care împart distribuţia în patru zone egale
ca număr de valori. Acestea sunt corespunzătoare rangurilor percentile 25, 50 şi 75.
Cu alte cuvinte, valoarea dintr-o distribuţie până la care se află 25% din valori este
percentila 25, valoarea până la care se află 50% din valori este percentila 50, iar
valoarea până la care se află 75% din valori este percentila 75.

Tabelul 3.2. Tabloul sintetic al frecvenţelor simple ( absolute) şi derivate


58
Valoare Fa Fc Fr (1) frc (1) Fr (%) frc (%)

10 2 25 0,08 1,00 8% 100%


9 2 23 0,08 0,92 8% 92%
8 5 21 0,20 0,84 20% 84%
7 3 16 0,12 0,64 12% 64%

6 7 13 0,28 0,52 28% 52%

5 1 6 0,04 0,24 4% 24%


4 4 5 0,16 0,20 16% 20%

3 0 1 0 0,04 0% 4%
2 1 1 0,04 0,04 4% 4%
Total Σfa=25 Σfr=1 Σfr%=100

3.1.2. Analiza frecvenţelor grupate

Aranjarea unei distribuţii sub forma tabelului de frecvenţe simple este foarte utilă, dar nu
este practică atunci când avem o distribuţie cu un număr mare sau foarte mare de
valori, care ar genera un tabel cu prea multe linii pentru a fi inteligibil.

Să presupunem că valorile de mai jos reprezintă distribuţia variabilei „inteligenţă”


măsurată prin aplicarea unui test la un număr de 50 de subiecţi. Dacă datele ar fi
aranjate la întâmplare, aşa ca în tabelul 3.3., ar fi dificil să ne facem o imagine asupra
lor.

Tabelul 3.3 Distribuţia nearanjată în scoruri standard QI a variabilei ”inteligenţă” (N=50)


101 94 87 117 115 116 91 113 96 105
92 107 118 114 98 112 101 114 107 109
97 109 124 102 118 113 116 106 108 89
106 108 115 92 97 102 108 102 109 114
107 104 110 101 101 121 125 86 109 123
Presupunând că le-am ordona şi am face tabelul frecvenţelor simple, am obţine un uşor
progres, dar încă ar fi greu de analizat, deoarece vom obţine un tabel cu prea multe
valori distincte.

59
Pentru a ne face o imagine sintetică a distribuţiei, ne propunem să realizăm un număr
de categorii (clase) cuprinse între anumite intervale de performanţă la test, urmând să
stabilim apoi care este frecvenţa de apariţie a fiecărei clase în distribuţia noastră. Această
tehnică de organizare a datelor se numeşte „frecvenţa grupată”
Pentru a realiza un tabel de frecvenţe grupate se procedează astfel:
1.Alegem numărul de intervale (clase, categorii), recomandabil, între 5 şi 15 (valori
stabilite convenţional şi orientativ)
2.Definim mărimea intervalului de clasă, respectând următoarele reguli:
- toate intervalele trebuie să fie egale
- limitele intervalelor trebuie să cuprindă toate valorile (între limitele intervalelor
alăturate să nu existe „goluri” sau suprapuneri).
Pentru distribuţia de mai sus, paşii de realizare a distribuţiei de frecvenţe grupate se
concretizează astfel:
Se face diferenţa dintre valoarea cea mai
125 – 86 = 39
mare şi valoarea cea mai mică
Se împarte valoarea obţinută la mărimea 39/2 ≈ 20 clase (prea mult)
posibilă a intervalului de clasă (2, 3, 5, sau 39/3 = 13 clase (variantă posibilă)
10) pentru a afla numărul de clase al noii 39/5 ≈ 8 clase (variantă
distribuţii acceptabilă)
Se selectează mărimea intervalului care Vom alege 5, pentru că produce o
conduce la un număr de clase cuprins între 5 distribuţie cu 8 clase care este mai uşor
şi 15. de analizat şi manipulat.
Se determină limita interioară a primului Alegem valoarea 85 ca limită inferioară.
interval (trebuie să fie un multiplu al mărimii
intervalului).

Se determină limita superioară a primului Dacă mărimea intervalului este 5, limita


interval. superioară va fi 89 ( 85, 87, 88, 89).
Se construiesc intervalele de clasă pentru fiecare interval (vezi coloana “clase” din
tabelul 3).
Se aplică analiza de frecvenţe ca în cazul frecvenţelor simple, folosită la clase.
Există şi diverse formule pentru calcularea numărului de clase dar, în general, regulile
de mai sus sunt suficiente în această fază. Oricum, trebuie să reţinem că în alegerea
intervalelor de clasă este necesar să ţinem seama şi de aspecte calitative, nu doar de

60
ordin formal. Astfel, dacă facem un studiu cu privire la efectul ritmului circadian asupra
performanţei psihice, utilizând rezultate obţinute în diferite momente ale zilei, intervalele
orare vor fi alese astfel încât să corespundă cu „intervalele de timp” utilizate în studii
similare, pentru a putea face, eventual, comparaţii.

În fine, alegerea dimensiunii intervalului trebuie să ţină seama şi de caracteristicile


distribuţiei simple (discutată anterior). Intervalele trebuie astfel alese încât să se evite
situaţia de a avea clase care cuprind un număr excesiv de valori, în timp ce alte clase
sunt puţin reprezentate sau nu conţin nici o valoare.

Atenţie, în exemplul dat, deşi valoarea maximă a variabilei este 125, intervalul maxim
este 125-129, deoarece intervalele declarate trebuie să fie egale. Ca urmare, tabelul
frecvenţelor grupate pentru distribuţia de mai sus va arăta astfel:

Tabelul 3.4. Frecvenţe grupate

Clase Fa fr% frc%


125 - 129 1 2% 100%
120 – 124 3 6% 98%
115 – 119 7 14% 92%
110 – 114 7 14% 78%
105 – 109 13 26% 64%
100 – 104 8 16% 38%
95 – 99 4 8% 22%
90 – 94 4 8% 14%
85 – 89 3 6% 6%
Σfa=50 Σfr%=100

Este de la sine înţeles că clasele de intervale (grupele) vor putea fi analizate într-o
manieră similară frecvenţelor simple, utilizând valorile absolute (fa) şi valorile relative
raportate la unitate sau procentuale (fr(1), fr%). Analizând tabelul de mai sus, putem
observa că cei mai mulţi subiecţi au obţinut un scor la testul de inteligenţă cuprins între 105
şi 109 (fa=13), aceştia reprezentând 26% din totalul subiecţilor evaluaţi. În fine, din
coloana frecvenţelor relative procentuale cumulate putem deduce că 64% dintre subiecţi
obţin o performanţă de maxim 109 sau mai mică.

61
3.1.2.1. Limite „aparente” şi limite „reale” ale intervalelor de clasă
Valorile intervalelor de clasă calculate mai sus sunt numite „limite aparente” ale
intervalelor. În intervalul superior, de exemplu, valoarea 129 este limita aparentă
superioară, iar 125, limita aparentă inferioară(Tabelul 3.5.).

Mijlocul intervalelor construite se calculează prin însumarea celor două limite aparente şi
împărţirea la 2: (125+129)/2=127. În mod similar, mijlocul celui de-al doilea interval
este: (120+124)/2=122

Media celor două mijloace de interval ne dă limita „reală” a intervalului superior:

(122+127)/2=124.5. Într-o manieră similară se pot construi limitele reale ale tuturor
intervalelor. Fiecare interval are o limită aparentă şi una reală, distanţa dintre ele fiind
aceeaşi.

Tabelul 3.5. Intervale cu limite aparente şi limite reale

Limite aparente Limite reale


125 - 129 124.5 – 129.5
20 – 124 119.5 – 124.5
115 – 119 114.5 – 119.5
110 – 114 109.5 – 114.5
105 – 109 104.5 – 109.5
100 – 104 99.5 – 104.5
95 – 99 94.5 – 99.5
90 – 94 89.5 – 94.5
85 – 89 84.5 – 89.5

3.2. Reprezentări grafice


Reprezentările graficele sunt forme intuitive de prezentare a distribuţiilor de frecvenţe
(„o imagine face mai mult decât o mie de cuvinte”). Ele sunt foarte frecvent utilizate
pentru analiza şi prezentarea datelor în psihologia aplicată, deoarece facilitează
înţelegerea semnificaţiei datelor numerice. În prezent, programele computerizate oferă

62
mijloace extrem de puternice şi de sofisticate pentru elaborarea reprezentărilor grafice,
dar simpla utilizare a unui astfel de program nu garantează realizarea unui grafic eficient.
În esenţă, un grafic eficient este o combinaţie reuşită între formă şi conţinutul statistic pe
care îl reflectă. Realizarea acestei combinaţii depinde de respectarea câtorva principii
esenţiale:

- focalizarea pe conţinutul şi nu pe forma graficului;


- este esenţial să fie evitate distorsiunile induse de forma graficului;
- este recomandabil să fie utilizate grafice care favorizează comparaţii între variabile şi
nu doar reprezentări individuale, “statice”, ale acestora;
- fiecare grafic trebuie să servească un singur scop, exprimat clar şi evident;
- orice grafic va fi însoţit de informaţii statistice şi descrierile necesare pentru a fi uşor şi
corect înţeles;
- un grafic trebuie să scoată în evidenţă datele şi nu abilităţile tehnice de editare ale
celui care l-a creat.
Formele de expresie grafică a datelor statistice sunt foarte numeroase. Ne vom ocupa
aici doar de câteva dintre acestea, cel mai des utilizate 1:

1- graficul de tip bară;


2- histograma;
3- poligonul de frecvenţe;
4- graficul frecvenţei cumulate(ogiva);
5- graficul circular;
6- graficul de tip „stem and leaf („tulpină şi frunze”);
7- graficul box-plot.
În cele ce urmează, vom face o trecere sumară în revistă a celor mai utilizate tipuri de
reprezentări grafice. Graficul box-plot va lipsi de aici, urmând să fie prezentat mai târziu,
într-un alt context.

3.2.1. Graficul de tip bară


Este cel mai simplu mod de reprezentare grafică a datelor. Se utilizează atunci când
dorim să reprezentăm o variabilă „discretă” (care prezintă valori întregi, de exemplu,

63
numărul de răspunsuri corecte la un test în funcţie de nivelul de instruire al subiecţilor)
sau de tip categorial.
În mod obişnuit, un grafic se prezintă ca o imagine inclusă într-un sistem de axe
perpendiculare:

axa orizontală (Ox) pe care sunt reprezentate valorile distribuţiei analizate;


axa verticală (Oy) pe care sunt reprezentate frecvenţele fiecărei valori, sub forma unei
bare rectangulare.
Iată cum arată un grafic de tip bară efectuat pe datele din tabelul de frecvenţe grupate,
luând clasele drept valori ale distribuţiei. Cu cât frecvenţa unei valori este mai mare, cu
atât bara este mai înaltă. Simplitatea şi claritatea este cea mai mare calitate a acestui tip
de grafic. Figura 3.1. Graficul de tip bară

Axa Ox
Observaţii:

- toate barele trebuie sa aibă aceeaşi lăţime


- între bare se lasă un spaţiu (deoarece nu există nici o legătură între ceea ce
reprezintă ele)

64
- barele pot fi puse în orice ordine o ordonarea barelor în funcţie de înălţime,
descrescător sau crescător, corespunde unui grafic-bară special, numit grafic
Pareto.

3.2.2. Histograma

La prima vedere histograma este asemănătoare cu graficul de tip bară. Ea este


adecvată pentru situaţiile când variabila pe care dorim să o reprezentăm este de tip
„continuu” (adică poate lua orice valoare pe o scală numerică, de ex., număr de
răspunsuri corecte, timpul de reacţie, lungimea, etc.). Iată, de exemplu, histograma
distribuţiei de frecvenţe din tabelul 3 (realizată cu SPSS-ul)

Figura 3.2. Histograma

65
Se observă faptul că programul a realizat automat o grupare de frecvenţe, afişând pe
axa Ox limita minimă a intervalului ca „etichetă” a acestuia.

3.2.3. Poligonul de frecvenţe

Poligonul de frecvenţe este o reprezentare alternativă la histogramă. Punctele centrale


ale suprafeţelor rectangulare, are reprezintă frecvenţa, sunt unite cu o linie ce delimitează
suprafaţa poligonului. Figura 3.3. prezintă distribuţia de frecvenţe grupate din tabelul de
mai sus, cifrele 1,2,3,4,5,6,7,8,9 reprezentând denumirea convenţională a fiecărei clase.

1 2 3 4 5 6 7 8 9

Figura 3.3. Poligonul de frecvenţe

3.2.4. Graficul frecvenţei cumulate

Este un grafic de tip liniar, care reprezintă valorile frecvenţei absolute cumulate(ogiva lui
Galton). Pe acest grafic se vede cu uşurinţă câte valori se află până la o anumită valoare
din distribuţie (datele reprezentate sunt cele din tabelul 3.4), fiecare interval de clasă fiind
etichetat convenţional cu cifre de la 1 la 9.

Figura 3.3. Graficul frecvenţei cumulate(ogiva lui Galton)

66
3.2.5. Graficul circular

Este utilizat în situaţiile în care valorile sunt „parte a unui întreg”. De exemplu, poate fi
utilizat la reprezentarea distribuţiei de frecvenţe grupate de mai sus, pentru a avea o
imagine directă a ponderii frecvenţei fiecărei clase de interval în raport cu celelalte.

Figura 3.4.Graficul circular

Graficul alăturat reprezintă frecvenţa absolută a claselor de interval ale aceleiaşi


distribuţii de mai sus. Pe un grafic de acest tip se pot reprezenta fie valorile absolute, fie
procentajul fiecărei clase raportat la întreg.

3.2.6. Graficul stem-and-leaf (stemplot)

Este o reprezentare care încearcă să îmbine expresia numerică cu cea grafică, fiind
propusă de statisticianul J.W. Tuckey (1977). Scopul principal a fost acela de a oferi nu
doar o imagine a distribuţiei, ci şi o metodă de explorare a acesteia. Ea este din ce în ce
mai utilizată de psihologi, motiv pentru care considerăm necesar să o prezentăm aici.

Atunci când utilizăm o distribuţie de frecvenţe grupate, cazurile individuale „se pierd” la
nivelul fiecărei clase de interval, fără a mai putea şti unde se plasează fiecare valoare
iniţială în interiorul fiecărui interval. Reprezentarea de tip stem-and-leaf (pe scurt stem
plot), are tocmai avantajul de a realiza graficul distribuţiei cu păstrarea valorilor
individuale. Modul de realizare:

Să revenim la distribuţia de scoruri QI prezentată anterior:

101 94 87 117 115 116 91 113 96 105

92 107 118 114 98 112 101 114 107 109

67
97 109 124 102 118 113 116 106 108 89

106 108 115 92 97 102 108 102 109 114

107 104 110 101 101 121 125 86 109 123


Mai întâi, observăm că valorile sunt cuprinse între 86 şi 125. Alegem o valoare
convenabilă pentru „tulpină”, care va juca rolul de interval de clasa, şi care în
cazul nostru poate fi 10. „Tulpina” reprezentării stem plot este în acest caz
numărul de zeci din fiecare valoare individuală.

Figura 3.5. Reprezentarea stem-and-leaf

Valorile din coloana stem Stem & Leaf


(tulpina) indică numărul de zeci, 8 . 679
iar cele din coloana leaf
9 . 1224
(frunza), numărul de unităţi.
9 . 6778
Dacă privim imaginea în
ansamblu, ne-o putem 10 . 111122245
reprezenta ca pe o histogramă 10 . 667778889999
orizontală. Valorile distribuţiei se 11 . 023344455
reconstituie astfel: se înmulţeşte
11 . 66788
„tulpina” cu mărimea ei, la care
12 . 1345
se adaugă „frunza”. Valorile Mărimea „tulpinii”: 10
distribuţiei se reconstituie astfel: Fiecare „frunză” : 1 caz
se înmulţeşte „tulpina” cu
mărimea ei, la care se adaugă
„frunza

În exemplul nostru, pentru stem 8 citim 8x10+6=86; 8x10+7=87; 8x10+9=89, iar


pentru stem 12 citim 12x10+6=126; 12x10+6=126; 12x10+7=127; 12x10+8=128;
12x10+8=128.

68
Putem privi stem-plot-ul ca o formă de reprezentare asociată unei analize de frecvenţe
grupate, unde valoarea stem este intervalul de clasă. În exemplul de mai sus, acest
interval este 10. Uneori putem aprecia că intervalul ales (stem) este prea mare,
producând un număr prea mic de linii ale reprezentării stem plot. Acest neajuns poate fi
uşor eliminat, e exemplu prin considerarea jumătăţii intervalului stem şi plasarea valorilor
leaf pe două linii succesive. Aşa cum se vede în graficul nostru, am plasat pe o linie
valorile leaf până la 5, şi pe altă linie valorile leaf peste 5, pentru stem 9, 10 şi 11.

Unul din avantajele graficului stem plot este şi acela că se pot reprezenta simultan, două
distribuţii, ceea ce favorizează analiza lor comparativă. Iată, spre ilustrare, graficul stem
plot comparativ pentru rezultatele la două teste de inteligenţă, unul bazat pe sarcini
verbale (stânga) şi celălalt pentru sarcini de tip non-verbal (dreapta):

Figura 3.6. Reprezentarea stem-and-leaf paralelă

Test verbal Test non-verbal


7 1
6 000111123345
22 987775331110 5 25556667899
8887442200 4 223445
664330 3
Stem = 10
1Leaf = un
caz
În general, forma reprezentării stem and leaf trebuie să fie subordonată unei cât mai
bune înţelegeri a distribuţiei. Atunci când numărul valorilor unei distribuţii este foarte
mare, se poate opta pentru atribuirea fiecărei „frunze” a mai multor cazuri, ceea ce
conduce la conservarea proporţionalităţii reprezentării. Ca urmare, poate fi aleasă orice
soluţie care slujeşte acestui scop, cu condiţia ca valorile stem şi leaf să fie bine precizate,
la fel şi celelalte convenţii asumate de analist în construcţia graficelor.

3.3.Concluzii

Utilizarea tabelelor de frecvenţă şi a reprezentărilor grafice aduce un important câştig în


analiza datelor statistice. Atât tabelele cât şi reprezentările grafice nu sunt decât
69
începutul analizei datelor nu şi sfârşitul acesteia. Cu alte cuvinte, nu vom putea trage
direct concluzii pe baza lor. Ele pot fi utilizate însă pentru a ilustra concluzii, care devin
astfel mai uşor de înţeles şi de reţinut. În fazele primare de analiză a datelor statistice,
graficele ne ajută să ne facem o imagine generală asupra acestora, lucru util pentru
alegerea procedurilor statistice. Este important să alegem tipul de grafic adecvat în
raport cu natura datelor şi cu ideea pe care dorim să o ilustrăm. În practică, graficele se
realizează utilizând programe specializate, iar SPSS, a carei prezentare generală o v-om
face în continuare, are proceduri puternice de realizare a unei largi varietăţi grafice.
3.4. Rezumat
1.Statistica descriptivă are drept obiective organizarea, sintetizarea şi descrierea datelor.
2.Tehnicile statisticii descriptive sunt globale sau sintetice
3.Statisticile descriptive globale sunt numerice (analiza de frecvenţe simple şi grupate)
şi grafice.
4.Analiza frecvenţelor simple se referă la frecvenţa de apariţie a valorilor individuale
dintr-o distribuţie.
5.Frecvenţa absolută este numărul de apariţie a unei valori.
6.Frecvenţa relativă este numărul de apariţii a unei valori în raport cu totalul valorilor
(frecvenţa relativă raportată la unitate sau procentuală)
7.Rangul percentil se defineşte ca procentajul datelor valorilor dintr-o distribuţie care se
află până la o anumită valoare inclusiv.
8.Percentila este valoarea dintr-o distribuţie care corespunde unui anumit rang
percentil.
9.Reprezentările grafice servesc ilustrării distribuţiilor în completitudinea lor, în forme
variate: bară, histogramă, poligon de frecvenţe, circular.
10.Graficul stem-and-leaf este o formă de reprezentare grafică care utilizează elemente
numerice, imaginea permiţând reconstituirea valorilor distribuţiei.

3.5. Exerciţii

1.Valorile de mai jos reprezintă distribuţia rezultatelor la un test de calcul aritmetic


(numărul de calcule corecte):

70
Scor Scor Scor Scor Scor
55 30 52 49 54
46 53 54 50 59
52 57 48 45 49
51 62 46 33 42
48 39 47 50 56
50 68 44 51 53

Realizaţi şi indicaţi:
1.Tabelul frecvenţelor simple
2. Scorul cel mai frecvent
3. Ce procent de valori se află sub scorul 33
4. Valoarea (scorul) care reprezintă percentila 20 este 45
5.Tabelul frecvenţelor grupate (indicaţi modul de alegere a numărului de intervale,
mărimea intervalului de clasă, intervalele de clasă, frecvenţa simplă, relativă şi cumulată
a grupelor de frecvenţă)
6. reprezentarea grafică de tip stem-and-leaf
(Verificaţi răspunsurile corecte la secţiunea 14. Rezolvări şi explicaţii la
exerciţiile din volum, Capitolul 3, exerciţiile 3.5)

3.6. Indicatori sintetici ai distribuţiilor statistice


Analiza de frecvenţe este o metodă utilă pentru punerea în valoare a unor caracteristici
ale distribuţiilor statistice. Cu toate acestea, ea este tributară necesităţii de a manipula
întreaga cantitate de date, toate valorile unei distribuţii (fie ele şi grupate). Pentru a
elimina acest neajuns sunt utilizaţi aşa numiţii indicatori sintetici. Aceştia sunt descriptori
numerici care condensează într-o valoare unică o anumită caracteristică a unei întregi
distribuţii de valori. Principalele avantaje pe care le oferă sunt concentrarea semnificaţiei
şi uşurinţa utilizării. În acelaşi timp, însă, trebuie să avem în vedere că, prin natura lor
sintetică, fiecare indicator pierde o anumită cantitate de informaţie care ţine de alte
caracteristici, pe care nu le surprinde.

Tipuri de indicatori sintetici:

71
Trei sunt caracteristicile distribuţiilor care sunt evaluate cu ajutorul indicatorilor sintetici:
tendinţa centrală, variabilitatea (împrăştierea, diversitatea), forma distribuţiei . Pentru
fiecare din aceste caracteristici se utilizează anumiţi indicatori specifici:

1.Indicatori ai tendinţei centrale. Aceştia sunt valori tipice, reprezentative, care


descriu distribuţia în întregul ei;
2.Indicatori ai variabilităţii. Sunt valori care descriu caracteristica de împrăştiere a
distribuţiei. O distribuţie care conţine aceeaşi valoare, ori de câte ori s-ar repeta ea,
are o variabilitate zero.
3.Indicatori ai formei distribuţiei. Sunt valori care se referă la forma curbei de
reprezentare grafică a distribuţiei, prin comparaţie cu o curbă normală (oblicitate,
aplatizare)

3.6.1. Indicatorii tendinţei centrale

3.6.1.1. Modul (Mo)

Modul este expresia cea mai directă a valorii tipice (reprezentative). În cazul unei
distribuţii simple, este valoarea cu frecvenţa cea mai mare de apariţie. În cazul unei
distribuţii de frecvenţe grupate, este clasa de interval cu frecvenţa cea mai mare de
apariţie.

Modul se află prin alcătuirea tabelei de frecvenţe (simple sau grupate) şi este valoarea
căreia îi corespunde frecvenţa absolută cea mai ridicată. Distribuţiile pot avea un singur
mod (unimodale), două moduri (bimodale) sau mai multe (multimodale)

Exemplu: În seria de valori 5,8,3,2,5,4, Mo=5 (apare de cele mai multe ori)

3.6.1.2. Mediana (Me)

Mediana este valoarea „din mijlocul” unei distribuţii, adică aceea care are 50% dintre
valori deasupra ei şi 50% dintre valori dedesubtul ei. Cu alte cuvinte, mediana este, în
acelaşi timp, percentila 50.

Mediana se găseşte prin alcătuirea tabelei de frecvenţe, în coloana frecvenţelor relative


procentuale cumulate, şi corespunde valorii de 50%. În cazul distribuţiilor cu număr

72
impar de valori, Me este chiar valoarea respectivă. În cazul distribuţiilor pare, Me se
calculează ca medie a celor două valori din mijlocul distribuţiei.

Exemplu: În seria de valori 5,8,3,2,5,4, ordonată crescător (2,3,4,5,5,8), Me=4,5 (ca


medie a valorilor 4 şi 5 aflate în mijlocul unei distribuţii pare). Dacă distribuţia noastră ar
fi avut 5 valori (fără 2, de exemplu), Me=5.

3.6.1.3. Media aritmetică (m)

Media este raportul dintre suma valorilor distribuţiei şi numărul acestora.

Notaţiile uzuale pentru medie sunt:

µ (miu), atunci când este media întregii populaţii de referinţă


m, atunci când se calculează pentru un eşantion (cazul cel mai frecvent)
Calcularea mediei pentru o distribuţie simplă de frecvenţe se face prin adunarea valorilor
şi împărţirea la numărul lor

Exemplu: Pentru distribuţia 5,8,3,2,5,4

(formula 3.1)

Calcularea mediei pentru o distribuţie de frecvenţe grupate se face prin suma


produsului dintre fiecare valoare şi frecvenţa ei, care apoi se împarte la suma
frecvenţelor (numărul valorilor).

Exemplu: Pentru distribuţia: 5,8,3,3,3,2,4,2,3,5,4

(formula 3.2)

NOTĂ: În expresia de mai sus:

X este variabila. ∑ X se înţelege ca „Sumă de la X1 la XN (numărul valorilor)

73
f este frecvenţa . ∑ f se înţelege ca „Sumă de la f1 la fk (unde k numărul grupelor de
frecvenţă)

Proprietăţile mediei aritmetice


Adăugarea\scăderea unei constante la fiecare valoare a distribuţiei, măreşte\scade
media cu acea valoare.
Înmulţirea\împărţirea fiecărei valori a distribuţiei cu o constantă,
multiplică\divide media cu acea constantă.
Suma abaterii valorilor de la medie este întotdeauna egală cu zero. Suma pătratului
abaterilor de la medie va fi întotdeauna mai mică decât suma pătratelor abaterilor în
raport cu oricare alt punct al distribuţiei. În final, prezentăm un exemplu ilustrativ de
calcul al modului, medianei şi mediei pe o distribuţie X de N=15 valori N=15 ΣX =300

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
60 45 22 20 16 16 16 15 14 14 14 12 12 12 12

Media=20 Mediana =15 Modul = 12


ΣX/N=300/15 (N+1)/2 =8 (valoarea cea mai frecventă)

Valorile de mai sus arată cât de diferită poate fi uneori imaginea pe care o prezintă cei trei
indicatori cu privire la tendinţa centrală a unei distribuţii, în ciuda faptului că fiecare
dintre ei se referă la tendinţa centrală.

3.6.2. Valori nedeterminate şi clase deschise

Valorile „nedeterminate” sunt acele valori a căror mărime nu decurge din procesul de
măsurare, în acelaşi mod în care rezultă oricare valoare a seriei (Exemplu: La testul de
asociere verbală, dacă subiectul depăşeşte, să zicem 10 sec., se înregistrează valoarea
10, fără a se aştepta, la infinit (?), un răspuns). Categorii „deschise” sunt acele categorii
de valori care au una dintre limite „liberă” (Exemplu: Câte ţigări fumezi zilnic? Se poate
înregistra numărul ţigărilor ca atare, dar ultima valoare este „30 sau mai mult). În

74
ambele situaţii de mai sus, utilizarea mediei este nesigură (şi incorectă) Indicatorul
recomandabil este mediana.

3.6.3. Avantajele şi dezavantajele indicatorilor tendinţei centrale

Tabloul de mai jos prezintă, în mod sintetic avantajele şi dezavantajele specifice


indicatorilor tendinţei centrale:

AVANTAJE DEZAVANTAJE
-Uşor de calculat - În general, nesigur, mai ales în cazul
(nesemnificativ în eşantioanelor mici, când se poate
prezent); modifica dramatic la o modificare minoră
-Poate fi utilizat a unei valori;
pentru orice tip de - Poate fi greşit interpretat. Se identifică
scală; total cu un scor anume, fără a spune
MODUL
-Este singurul nimic despre celelalte valori;
indicator pentru scale - Nu poate fi utilizat în statistici
nominale; inferenţiale;
-Corespunde unui
scor real al
distribuţiei;
- Poate fi utilizată pe - Poate să nu corespundă unei valori
scale ordinale şi de reale (N par);
interval\raport; - Nu reflectă valorile distribuţiei (un scor
- Poate fi utilizată şi pe extrem se poate modifica, fără a afecta
MEDIANA
distribuţii de frecvenţă Me);
cu clase deschise sau - Este mai puţin sigură în extrapolarea
scoruri nedeterminate de la eşantion la populaţie;
la marginile distribuţiei; - Greu de utilizat în statistici avansate.

75
- Reflectă valorile - De obicei nu corespunde unei valori
întregii distribuţii; reale;
-Are multe proprietăţi - Nu este tocmai adecvată pentru scale
statistice ordinale;
MEDIA dezirabile; -Conduce la interpretări greşite pe
- Adecvată pentru distribuţii
utilizare în statistici asimetrice;
avansate; -Poate fi puternic afectată de
scorurile extreme;

3.6.4. Valori extreme (excesive) ale distribuţiei

Valorile extreme reprezintă valori excesive, neobişnuit de mari sau de mici faţă de
celelalte valori ale unei distribuţii. Identificarea lor este necesară pentru a se evita
efectul pe care îl au asupra valorilor tendinţei centrale, în primul rând asupra mediei.
Una dintre metodele de identificare este analiza grafică de tip Box-and-Whisker-Plot (pe
scurt Box-Plot), elaborată de Tukey.

În esenţă, reprezentarea box-plot (vezi imaginea de mai jos) este constituită dintr-o
casetă (dreptunghi), a cărui limită inferioară este plasată în dreptul percentilei 25, limita
superioară fiind plasată în dreptul percentilei 75. Cu alte cuvinte, caseta cuprinde 50%
dintre valorile unei distribuţii. Distanţa dintre valorile limită ale casetei se numeşte H. Linia
din interiorul casetei marchează valoarea mediană (Me). „Mustăţile” care pornesc de la
limita superioară şi inferioară a casetei, au o lungime maximă egală cu 1.5 H. În acel
punct se lasează ultima valoare „legitimă” a distribuţiei. Orice valoare mai mică sau mai
mare de acestea, sunt definite ca extreme (Outliers). Pentru a exemplifica modul de
creare a reprezentării box-plot vom utiliza distribuţia scorurilor QI prezentată anterior, la
care am adăugat două valori suplimentare (135 şi 142), alese intenţionat pentru a fi mai
mari decât restul valorilor. Tabelul 3.6. Distribuţie de valori QI

101 94 87 117 115 116 91 113 96 105 135


92 107 118 114 98 112 101 114 107 109 142
97 109 124 102 118 113 116 106 108 89
106 108 115 92 97 102 108 102 109 114
107 104 110 101 101 121 125 86 109 123

76
Pentru a face reprezentarea box-plot facem mai întâi tabela de frecvenţe simple, cu
scopul calculării percentilelor. Tabelul de frecvenţe alăturat cuprinde valorile ordonate ale
distribuţiei, între de la valoarea cea mai mică (86) şi se cea mai mare (142). Pe coloana
frc% se află frecvenţele cumulate procentuale (percentilele). Pentru box plot identificăm
percentilele 25 şi 75. Ele corespund valorilor 101 (este valoarea cea mai apropiată de 25
pe coloana frc%) şi, respectiv, 114. Am obţinut astfel, limita inferioară şi superioară a
casetei. Mediana (percentila 50) corespunde valorii 108 (frc%=53.8, prin aproximare).
Diferenţa dintre valorile corespunzătoare percentilelor 25 şi 75 este 13 (114-101). Astfel
putem determina limitele prelungirilor superioară şi inferioară ale casetei care sunt:
114+13*1.5=128 (aproximare) pentru prelungirea superioară şi, respectiv 101-
13*1,5=83 (aproximare) pentru cea de jos. Am obţinut astfel toate valorile necesare
trarasării box plotului. Imaginea de mai jos prezintă tabelul distribuţiei şi box-plot-ul
corespunzător.

Figura 3.7. Modul de construire a reprezentării boxplot

77
.

3.6.4.1. Tratarea valorilor extreme

Punerea în evidenţă a unor valori extreme ridică problema modului lor de tratare a
acestor valori. În acest scop, trebuie să avem în vedere două aspecte:

1. Stabilirea naturii valorilor extreme, care pot fi:

78
a.erori de înregistrare (tastare);
b.erori de măsurare;
c.rezultate influenţate de anomalii ale condiţiilor experimentale;
d.eşantionul a fost extras dintr-o populaţie asimetrică;
e.valorile respective fac parte din altă populaţie de valori;
f.eşantion prea mic, ceea ce face ca apariţia unui „caz neobişnuit” sa fie mai
probabilă.
2. Tratarea lor pe una din căile posibile:
a. eliminare (dacă sunt erori necorectabile);
b. corectare (dacă este posibil);
c. utilizarea mediei 5%trim, adică a mediei care nu ţine cont de 5% din numărul
valorilor de la fiecare din cele două extremităţi ale distribuţiei.
d. transformare (dacă datele sunt corecte şi, totuşi, dorim să evităm efectul lor
asupra indicatorilor sintetici). Există diverse metode de transformare:
extragerea radicalului din toate valorile distribuţiei, logaritmarea distribuţiei,
etc.1
Analiza valorilor extreme reprezintă unul dintre obiectivele principale a fazei preliminare
de analiză a datelor. Prezenţa lor este de natură să aibă efecte majore asupra
rezultatelor, fapt care trebuie luat în considerare la alegerea procedurilor statistice
inferenţiale.

3.6.5. Indicatori sintetici ai împrăştierii(dispersiei)

Indicatorii tendinţei centrale se referă la ceea ce face ca valorile să se asemene, la


caracteristica „comună” a valorilor unei distribuţii. Indicatorii împrăştierii, de care vom
vorbi în continuare, se referă la caracteristica de variabilitate, care descrie diferenţele
existente între valori. În cazul tendinţei centrale este scoasă în evidenţă caracteristica
valorilor unei distribuţii de a se „asemăna” unele cu altele, „asemănare” surprinsă de
indicatorii tendinţei centrale. În cazul împrăştierii, se urmăreşte descrierea tendinţei
valorilor de a se deosebi una de alta, de a se „sustrage” unei tendinţe centrale prin
1
Aceste metode vor fi discutate cu ocazia subcapitolelor privind aplicaţiile pachetului de programe
SPSS/PASW

79
îndepărtarea de aceasta. De exemplu, o distribuţie de tipul 2,2,2,2,2,2,2 este, evident,
mult mai omogenă (mai puţin variabilă) decât o distribuţie de genul 1,2,3,4,5,6,7.

De fapt, prima dintre cele două serii de valori nu prezintă nici o variaţie, toate valorile
fiind identice unele cu celelalte. Într-o serie de valori identice, reprezentativitatea unui
indicator al tendinţei centrale este absolută (Mo=Me=m=Xi, unde Xi este fiecare dintre
valorile distribuţiei). Acesta este un caz extrem şi improbabil. Într-o distribuţie reală
fiecare valoare are „individualitatea” ei. Cu cât valorile diferă mai mult una de alta, cu
atât variabilitatea distribuţiei este mai mare. O definiţie echivalentă, care este mai uşor de
tradus în operaţii matematice, priveşte variabilitatea ca măsura în care valorile diferă
faţă de medie.

Să ne imaginăm următoarea situaţie: Un psiholog clinician vrea să vadă efectul unei


metode de creştere a încrederii în sine pe un lot de
subiecţi. În acest scop, el evaluează încrederea în sine
înainte şi după şedinţele de psihoterapie.
Distribuţia valorilor este reprezentată în imaginea
alăturată. Figura 3.8. Distribuţia comparativă a
scorurilor înainte şi după terapie

Aşa cum se observă, valorile încrederii măsurate înainte


de cura psihoterapeutică au o medie de 30 şi o
împrăştiere (neomogenitate) mai mare, în timp ce valorile de după tratament prezintă o
medie de 40 şi o împrăştiere mai mică, (sunt mai omogene). Acest fapt sugerează că
tratamentul psihoterapeutic a avut efect. Imaginea scoate în evidenţă şi faptul că în
distribuţiile mai omogene media este mai reprezentativă decât în distribuţiile mai puţin
omogene.

Pentru evaluarea împrăştierii distribuţiilor statistice se utilizează mai mulţi indicatori.


Distingem două categorii de indicatori ai împrăştierii: elementari şi sintetici. Principala
caracteristică a indicatorilor elementari este aceea că surprind împrăştierea distribuţiei
prin distanţa dintre doar două valori ale acesteia.

80
3.6.5.1. Intervalul sau amplitudinea absolută (R de la Range)

Amplitudinea absolută este dată de diferenţa dintre valoarea maximă şi valoarea minimă
a unei distribuţii

R= Xmax - Xmin (formula 3.3)

Utilitatea ei este dată de faptul că ne indică în mod absolut plaja de valori între care se
întinde distribuţia.

Principalul dezavantaj constă în faptul că poate fi influenţată de o singură valoare aflată


la extremitatea distribuţiei.

3.6.5.2. Amplitudinea relativă

Amplitudinea relativă este dată de raportul procentual dintre amplitudinea


absolută şi media distribuţiei:
R% = R/m *100 (formula 3.4.)
Este utilă atunci când cunoaştem plaja teoretică de variaţie a distribuţiei, putând astfel
să facem o comparaţie cu plaja reală, obţinută prin formula de mai sus.

Din cauză că amplitudinea utilizează doar cele două valori extreme ale distribuţiei, este
un indicator imprecis al variabilităţii. Exemple:

Figura 3.9. Amplitudinea şi variabilitatea

81
În cazul prezentat anterior, observăm următoarele:

 Distribuţia A are o amplitudine mai mare dar şi o variabilitate mai mare decât
distribuţia B;

 Amplitudinile distribuţiilor A şi B sunt identice, dar distribuţia A are mai multă


variabilitate.

3.6.5.3. Abaterea quartilă (cvartilă, intercvartilă-RQ)

Quartilele (Q) sunt percentilele care împart distribuţia în patru segmente egale. Ele sunt:
Q1 (percentila 25); Q2 (percentila 50, sau Me); Q3 (percentila 75).

Abaterea quartilă este dată de diferenţa dintre valoarea corespunzătoare quartilei 3 şi


valoarea corespunzătoare quartilei 1

RQ = Q3 – Q1 (formula 3.4)

Nota bene: Se poate observa că este chiar distanţa dintre limita superioară şi cea
inferioară a casetei Box-Plot (valoarea H).

3.6.5.4. Abaterea semiinterquartilă (RSQ):

Abaterea semi-interquartilă semnifică distanţa unui scor „tipic” faţă de amplitudinea


întregii distribuţii. Se calculează ca media diferenţei dintre quartila 3 şi quartila 1.

(formula 3.5.)

Într-o distribuţie perfect simetrică RSQ=Q2=Me

RSQ nu este afectată de valorile aberante fiind considerată, din acest motiv, un indicator
„robust” al împrăştierii

O imagine de ansamblu a tipurilor de indicatori elementari ai împrăştierii ne este dată de


figura de mai jos, unde am figurat prin puncte o distribuţie oarecare de 31 de valori
posibile.

82
Figura 3.10. Indicatorii variabilităţii pe o distribuţie de valori
Aşa cum am precizat, acest tip de indicatori ilustrează împrăştierea prin distanţa dintre
două puncte ale unei distribuţii. Unul dintre avantajele lor este acela al uşurinţei de calcul.
Pe de altă parte, tocmai pentru că iau în seamă doar două dintre valorile distribuţiei,
sunt vulnerabili şi nesiguri. Utilitatea lor este în general limitată dar sunt singurii care
pot fi folosiţi atunci când indicatorii sintetici (de care vom vorbi în continuare), nu pot fi
calculaţi. Un alt dezavantaj al acestora este dificultatea de a fi utilizaţi în procedurile
statistice avansate.

Spre deosebire de indicatorii elementari, indicatorii sintetici surprind împrăştierea unei


distribuţii prin luarea în considerarea abaterii fiecărei valori de la un anumit indicator al
tendinţei centrale. Cel mai uzual indicator de referinţă pentru împrăştiere este media.
Aceasta pentru că, aşa cum ne amintim, media are avantajul de a fi o
„concentrare” a tuturor valorilor unei distribuţii.

3.6.5.5. Abaterea medie (d de la deviaţie medie)

Distanţa dintre o valoare anumită şi media distribuţiei se numeşte abaterea valorii (Xi-
m). Dacă am dori să calculăm abaterea medie a unei distribuţii nu ne-ar rămâne decât
să însumăm abaterile individuale ale fiecărei valori şi să le împărţim la numărul acestora.
Din păcate, media abaterilor într-o distribuţie este întotdeauna egală cu zero (vezi
proprietăţile mediei). Acest fapt poate fi descris cu formula ∑(Xi-m)/N = 0

unde Xi sunt valorile distribuţiei, m este media iar N, numărul de valori, şi poate fi pus
în evidenţă practic, astfel:

Tabelul 3.6. Calcularea sumelor abaterilor de la medie

X Xi – m
83
5 (5 – 4.5) = .5
8 (8 – 4.5) = 3.5
3 (3 – 4.5) = -1.5
2 (2 – 4.5) = -2.5
5 (5 – 4.5) = .5
4 (4 – 4.5) = -.5

ΣX = 27 Σ(Xi-m) = 0
N=6
m = 4.5
Aşa cum se observă în coloana „Xi–m”, diferenţele individuale însumate produc Σ(Xi-m)
= 0. Acest lucru este valabil pentru orice fel de distribuţie şi este una dintre proprietăţile
importante ale mediei.

Pentru a elimina acest inconvenient putem să luăm abaterile individuale în valoare


absolută (fără semn).

Tabelul 3.7. Suma abaterilor de la medie în valoare absolută

X (Xi – m)
5 (5 – 4.5) = .5
8 (8 – 4.5) = 3.5
(3 – 4.5) = 1.5
2 (2 – 4.5) = 2.5
5 (5 – 4.5) = .5
4 (4 – 4.5) = .5
ΣX = 27 Σ|Xi-m| = 9
N=6
m = 4.5

(formula 3.6.)

Pentru cazul frecvenţelor grupate, formula devine:

(formula 3.7.)

Abaterea medie este uşor de înţeles şi are semnificaţia de medie a distanţelor între fiecare
scor şi media distribuţiei. Din păcate, nici ea nu este potrivită cu statisticile avansate.

84
3.6.5.6. Dispersia (varianţa, abaterea medie pătratică)

Notaţii uzuale:

s2 (când se calculează pentru eşantion)

σ2 (când se calculează pentru întreaga populaţie) Pentru a elimina inconvenientul


abaterilor de la medie de a avea suma egală cu zero, se operează ridicarea la pătrat a
abaterilor valorilor individuale5.

Tabelul 3.8. Suma abaterilor de la medie ridicate la pătrat

X (Xi – m) (Xi – m) 2
5 (5 – 4.5) = .5 .25
8 (8 – 4.5) = 3.5 12.25
3 (3 – 4.5) = -1.5 2.25
2 (2 – 4.5) = -2.5 6.25
5 (5 – 4.5) = .5 .25
4 (4 – 4.5) = -.5 .25

ΣX = 27 Σ(Xi-m) = 0 Σ(X-m)2= 21.5


N=6
m = 4.5
Operaţiile succesive efectuate mai sus, ridicarea la pătrat şi extragerea radicalului, nu
trebuie văzute ca operaţii artificiale, „gratuite”. Aceste operaţii nu se referă la valorile
distribuţiei ci la abaterile de la medie, ceea ce conduce la rezultate diferite care exprimă,
într-o altă formă, aceeaşi caracteristică de împrăştiere a valorilor originale.

3.6.5.7. Abaterea standard

Notaţii uzuale:

-s (pentru eşantioane)

-δ(pentru populaţie)
-SD (Standard Deviation, în standardul APA )
-ab. std.
Abaterea standard se obţine prin extragerea radicalului din expresia abaterii medii
pătratice(dispersiei).

85
(formula 3.8 )

Operaţiile succesive efectuate mai sus, ridicarea la pătrat şi extragerea radicalului, nu


trebuie văzute ca operaţii artificiale, „gratuite”. Aceste operaţii nu se referă la valorile
distribuţiei ci la abaterile de la medie, ceea ce conduce la rezultate diferite care exprimă,
într-o altă formă, aceeaşi caracteristică de împrăştiere a valorilor originale.

Această operaţie este permisă de proprietăţile mediei.

3.6.5.8. Corecţia indicatorilor împrăştierii calculaţi pentru eşantioane

Formulele 2.9 şi 2.10 au la numitor valoarea N (volumul eşantionului). Fără a intra în


detalii, vom spune că valorile astfel calculate, ale dispersiei şi abaterii standard, pentru
un eşantion, conţin o imprecizie (bias) care conduce la subestimarea împrăştierii la
nivelul populaţiei. Chiar dacă luăm în considerare un număr mare de eşantioane, extrase
succesiv dintr-o anumită populaţie, indicatorii împrăştierii vor fi mai mici decât
împrăştierea la nivelul întregii populaţii.

Corecţia se face prin utilizarea la numitor a expresiei N-1. În acest mod, cu cât
eşantionul este mai mic, cu atât indicatorul respectiv al împrăştierii va fi influenţat mai
mult de expresia de la numitor.

Expresia N-1 poartă numele de „grade de libertate”. Pentru a-i înţelege semnificaţia,
este bine să ne gândim la faptul că, într-o distribuţie de 3 valori (de exemplu: 1,3,8)
media este 4, iar abaterile de la medie sunt –3, -1, 4. Suma lor este zero. Ca urmare,
este suficient să cunoaştem cel puţin două din cele trei valori pentru a o afla pe a treia.
Altfel spus, doar două valori sunt libere să se modifice, a treia (ultima) fiind determinată
de acestea.

Formulele corecte devin:

86
(formula 3.9.)

(formula 3.10.)
Formulele iniţiale, de definiţie, rămân corecte pentru situaţia în care se urmăreşte doar
descrierea caracteristicii de împrăştiere pentru eşantionul respectiv. Atunci când se
urmăreşte însă extrapolarea acestei valori la nivelul populaţiei, utilizarea formulei
corectate este absolut necesară. Este evident că diferenţa dintre valoarea corectată şi
cea necorectată a variabilităţii este cu atât mai mare cu cât eşantionul este mai mic,
ponderea numitorului asupra rezultatului fiind astfel mai mare. Cu cât N este mai mare,
rezultatul formulei este mai puţin afectat de diferenţa de o unitate a numitorului.
Programele de prelucrări statistice utilizează pentru calculul celor doi indicatori doar
formulele corectate.

3.6.5.9. Proprietăţile abaterii standard

Abaterea standard este, aşa cum vom vedea, indicatorul principal al împrăştierii utilizat
în diverse proceduri statistice avansate. Pentru a-i justifica modul de utilizare în diverse
formule, trebuie să reţinem câteva proprietăţi fundamentale ale abaterii standard:

1. Dacă se adaugă/scade o constantă la fiecare valoare a unei distribuţii, abaterea


standard nu este afectată

87
2. Dacă se multiplică/divide fiecare valoare a unei distribuţii ci o constantă, abaterea
standard se multiplică/divide cu aceea constantă.

3. Abaterea standard faţă de medie este mai mică decât abaterea standard faţă de
orice altă valoare a unei distribuţii

3.6.5.10. Coeficientul de variaţie

Abaterea medie şi abaterea standard se exprimă în unităţile de măsură ale variabilei de


referinţă. De exemplu, pentru o distribuţie de timpi de reacţie, exprimaţi în sutimi de
secundă, s=2.14 înseamnă că împrăştierea standard este de 2.14 sutimi de secundă.

Dacă acelaşi eşantion face şi un test de coordonare a mişcărilor, evaluat în număr de


„ieşiri din traseu” a căror abatere standard este s=20.94, nu putem compara
omogenitatea celor două serii de valori. Adică, nu putem spune dacă eşantionul este mai
omogen sau mai puţin omogen din perspectiva uneia dintre cele două performanţe.

Dintre soluţiile posibile pentru eliminarea acestui neajuns, cea mai des utilizată este
coeficientul de variaţie (variabilitate), notat cu cv (sau v), propus de Pearson. Se
calculează ca raport între abaterea standard şi medie. Poate fi exprimat şi procentual
conform formulei de mai jos:

(formula 3.11.)
Valoarea acestui coeficient exprimă un raport procentual dintre abaterea standard şi
medie. Cu cât este mai mare, cu atât putem spune că media este mai puţin
„reprezentativă” pentru distribuţia respectivă, dată fiind ponderea ridicată a împrăştierii.
Utilizarea coeficientului de variaţie este limitată la valorile măsurate pe scale de raport,

88
cu origine naturală 0. În cazul a două variabile a căror origine este diferită una de alta,
diferenţele dintre valori (abaterea standard) rămân aceleaşi, dar media se schimbă, fapt
care face ca raportul exprimat în formulă să fie modificat, iar comparaţia a doi coeficienţi
de variaţie, lipsită de relevanţă. În plus, pe o scală de interval cu valori negative se poate
ajunge la medie egală cu 0, ceea ce face formula inaplicabilă.

Utilitatea coeficientului de variaţie vine de la faptul că valoarea sa nu mai este legată de


unitatea de măsură. Diferenţa dintre două valori cv poate fi interpretată ca diferenţă de
împrăştiere a celor două variabile, chiar dacă măsoară lucruri diferite. Sunt propuse
anumite limite de interpretare a acestui indicator, astfel:

- dacă cv<15%, împrăştierea este mică şi, deci, media este reprezentativă .
- dacă cv este cuprins între 15%-30%, împrăştierea este mijlocie şi media este
suficient de reprezentativă .
- dacă cv este mai mare de 30%, împrăştierea este mare şi media are o
reprezentativitate redusă.

Calcularea coeficientului de variaţie a unei distribuţii, înainte de integrarea ei în


proceduri statistice inferenţiale, este o metodă utilă de verificare a măsurii în care
media, pe care se bazează de cele mai multe ori procedurile inferenţiale, este legitimă.

3.6.5.11. Alegerea indicatorului împrăştierii

Abaterea standard(s) este cea mai utilizată pentru scale de măsurare interval/raport.
Realizează cea mai bună combinaţie între calitatea estimării şi posibilitatea de a
fundamenta inferenţe statistice.
Amplitudinea(R) este un indicator nesigur şi care nici nu poate fi calculat în cazul
scalelor nominale.
Pe distribuţii cu valori nedeterminate sau cu intervale deschise, se alege abaterea
interquartilă (semi-interquartilă RsQ).

3.6.6. Indicatori ai formei distribuţiei

Expresia grafică a distribuţiilor poate fi descrisă sub două aspecte esenţiale: simetria şi
boltirea. O distribuţie este simetrică atunci când valorile acesteia se împart în mod egal de
89
o parte şi de alta a valorilor tendinţei centrale. Se numesc asimetrice (skewed)
distribuţiile ale căror valori se concentrează fie în zona valorilor mici (spre stânga) fie în
zona valorilor mari (spre dreapta)

Figura 3.11. Poziţia indicatorilor tendinţei centrale în funcţie de forma distribuţiei


Figurile de mai sus arată cum se plasează cei trei indicatori ai tendinţei centrale în
funcţie de simetria distribuţiei.

În cazul distribuţiilor (perfect) simetrice, Mo, Me şi m se plasează pe aceeaşi valoare.


În cazul distribuţiilor asimetrice cei trei indicatori au poziţii diferite (vezi figura).
Mediana se plasează întotdeauna între mod şi medie. Din acest motiv, mediana este cea
mai reprezentativă valoare pentru distribuţiile asimetrice.
Media este afectată de valorile extreme, cu atât mai mult cu cât acestea sunt mai
puternic deviate. Ca urmare, în cazul distribuţiilor puternic asimetrice, media nu este un
indicator veridic al tendinţei centrale.
Descrierea numerică a caracteristicii de simetrie/asimetrie se face cu ajutorul unui
indicator statistic specific, numit indicator de „simetrie” sau de „oblicitate” (skewness, în
limba engleză). Nu vom prezenta aici formula sa de calcul, destul de complicată, el
urmând a fi obţinut uşor cu ajutorul programelor specializate. Vom face însă câteva
precizări cu privire la domeniul de variaţie şi semnificaţia acestui indicator. Pentru o curbă
absolut simetrică, indicele de oblicitate (skewness) are valoarea 0 (zero), primind valori

90
pozitive pentru curbele asimetric pozitive şi valori negative pentru cele asimetric
negative. Ca reper general de apreciere, recomandat de cei mai mulţi autori, un indice de
oblicitate a cărui valoare depăşeşte +1/-1 semnalează o asimetrie pronunţată a
distribuţiei.

Caracteristica de boltire (kurtosis, în terminologia engleză) indică gradul de extindere pe


verticală a curbelor de distribuţie. În termeni generali, sub aspectul boltirii, curbele pot fi
de trei categorii:

-leptokurtice, cu majoritatea valorilor distribuite în zona mediei (au o formă


„înaltă” şi „subţire”);

-mezokurtice, cu o prezenţă „moderată” a valorilor în zona mediei;


-platikurtice, cu valori medii relativ puţine şi o formă aplatizată.

Figura 3.12. Tipurile de aplatizare

Desigur, o curbă poate fi în acelaşi timp şi asimetrică şi boltită excesiv, chiar dacă
imaginea de mai sus ilustrează boltirea pe curbe simetrice.

Indicatorul numeric al boltirii (kurtosis) are o plajă de variaţie în jurul valorii zero (care
înseamnă boltire medie, „normală”, mezocurtică). Indicele de boltire pozitivă indică o
curbă „înaltă” (leptocurtică), iar indicele de boltire negativă, o curbă „aplatizată”
(platicurtică). La fel ca şi în cazul indicelui de oblicitate (skewness), cu cât acesta este
mai îndepărtat de valorile +1/-1, avem de a face cu distribuţii cu abatere accentuată de
la boltirea „normală”.

91
Calcularea indicatorilor de simetrie şi de boltire reprezintă modalităţi importante de
apreciere a caracteristicilor unei distribuţii. Aceştia trebuie luaţi în considerare ori de
câte ori utilizarea procedurilor statistice inferenţiale reclamă anumite caracteristici ale
distribuţiilor.

3.6.7. Rezumat

Un indicator statistic concentrează într-o singură valoare o anumită caracteristică a


distribuţiei.
Statisticile descriptive sintetice sunt reprezentate de:
 indicatorii tendinţei centrale (modul, mediana, media);
 indicatorii împrăştierii sau variabilităţii (amplitudine, abatere interquartilă, abaterea
medie, dispersia, abaterea standard)
 indicatorii formei distribuţiei (simetrie şi boltire).
 Cei mai frecvent utilizaţi indicatori statistici sunt media şi abaterea standard.

3.6.8. Exerciţii

1.Un psihoterapeut doreşte să verifice eficienţa unei noi metode pentru reducerea
tendinţelor de tip fobic. În acest scop selectează aleatoriu, dintr-un grup de pacienţi cu
tendinţe fobice, două grupuri, A şi B. Cu grupul A, utilizează o metodă terapeutică
„clasică”, iar cu grupul B, metoda nouă. La finalul terapiei aplică un chestionar de
evaluare a tendinţelor fobice, obţinând următoarele scoruri:

Grupul A: 79, 75, 98, 81, 82, 70, 60, 82, 77, 81, 81, 87, 88, 94, 79, 92, 77, 70, 74, 71

Grupul B: 73, 84, 76, 70, 69, 76, 46, 81, 92, 66, 87, 81, 78, 45, 67, 73, 88, 79, 95, 86

a)Calculaţi media(m) şi abaterea standard(s) şi indicele de variabilitate(cv) pentru


fiecare grup. Discutaţi comparativ aceste valori.

b) Construiţi graficul box-plot pentru cele două grupuri şi discutaţi diferenţele de aspect
pe care le constataţi.

2. În urma aplicării a două chestionare de personalitate la un eşantion de 14 studenţi


au fost obţinute următoarele două serii de rezultate(distribuţii de scoruri):

92
-(1).La scala de timiditate:29,28,36,41,25,15,33,40,33,20,35,26,32,23
-(2).La scala privind sentimentul de
singurătate:27,35,30,51,30,2047,42,4033,28,40,25,15
2.1.Calculaţi care sunt, pentru fiecare dintre cele două variabile, următorii indicatori ai
tendinţei centrale: mediana(Me), modulul(Mo) şi media(m).
2.2.De asemenea, calculaţi pentru ambele serii de date şi următorii indicatori ai
împrăştierii: amplitudinea(R), abaterea quartilă(R Q), abaterea semiinterquartilă(Rsq),
abaterea medie pătratică(s2) abaterea standard(s) şi coeficientul de variaţie(cv).
3.Care dintre indicatorii împrăştierii (amplitudine, abatere interquartilă. abatere
standard) ar trebui aleşi pentru fiecare dintre următoarele situaţii:
a) Distribuţia este puternic asimetrică, având câteva valori extreme într-o singură
direcţie a curbei
b) Intenţionaţi să utilizaţi proceduri statistice avansate (de exemplu, să emiteţi
aprecieri asupra populaţiei pe baza datelor de eşantion )
c) Vreţi să ştiţi întinderea maximă a unei distribuţii
d) Vreţi ca fiecare valoare a distribuţiei să fie luată în considerare
e) Valoarea cea mai mare a distribuţiei este „mai mult de 10”.
(Verificaţi răspunsurile corecte la secţiunea 14. Rezolvări şi explicaţii la
exerciţiile din volum, Capitolul 3, exerciţiile 3.6.8)

93
Capitolul 4. Pachetul statistic SPSS/PASW

4.1. Prezentarea generală a pachetului SPSS/PASW


PASW este denumirea sub care, din luna martie a anului 2009 este comercializat cel mai
răspândit pachet de programe statistice, SPSS ( Statistical Package for the Social
Sciences). Modificarea denumirii (PASW semnifică Predictive Analytics Software) a
intervenit ca urmare a deciziei producătorului - www.spss.com – de a reuni sub o
singură marcă toate produsele de analiză predictivă ale companiei: SPSS Statistics,
Clementine (data mining), Text Mining for Clementine (text mining), Dimensions
(Colectarea datelor), şi Predictive Enterprise Services (mediu colaborativ).
Prima versiune a SPSS a fost lansata în 1968 şi a suportat numeroase îmbunătăţiri,
permise sau generate de cerinţele utilizatorilor, progresele înregistrare în statistica
socială, evoluţia sistemelor de operare şi a componentelor fizice ale calculatoarelor şi
reţelelor, cea mai recentă fiind versiunea 18.0 (30 iulie 2009). Progresele au constat în
rafinarea testelor statistice şi sporirea numărului acestora, creşterea uşurinţei în
utilizare, dezvoltarea flexibilităţii în utilizarea diferitelor tipuri de date; modificările
importante din cele mai recente sunt orientate însă spre mediul de afaceri. De exemplu,
PASW 18 aduce în plus un modul de marketing direct.
Decizia de utilizarea, în lucrarea de faţă a PASW/SPSS pentru exemplificarea metodelor
şi tehnicilor de prelucrare informatizată a datelor şi de efectuare a analizelor statistice a
fost dictată de raţiuni practice, între care cea mai importantă este transferabilitatea
deprinderii de a opera acest program datorită următoarelor caracteristici:
94
- este cel mai vechi şi unul dintre cele mai răspândite, pe plan mondial, program
de analiză statistică; utilizarea PASW/SPSS într-o gamă largă de domenii
(psihologie, marketing, sociologie, sănătate etc.) face ca uşurinţa în prelucrarea şi
analiza datelor cu ajutorul său să constituie o competenţă apreciată pe piaţa
muncii;
- există versiuni pentru cele mai răspândite sisteme de operare ( Windows, Mac OS
şi Linux), având interfaţă identică, bazată pe ferestre şi meniuri derulante, ceea
ce face posibilă operarea facilă, indiferent de infrastructura IT a organizaţiei în
care se desfăşoară activitatea;
- este standardul de referinţă pentru programele de prelucrare şi analiză statistică
a datelor; eficienţa celorlalte programe care au aceeaşi destinaţie (proprietare
sau din domeniul public) se evaluează în raport cu PASW/SPSS;
- permite importul, prelucrarea şi exportul multor tipuri de fişiere specifice altor
programe similare (SAS, STATA etc.), dar accesarea informaţiilor stocate în
majoritatea tipurilor de baze de date.
Aplicaţiile practice prezentate în conţinutul lucrării au fost realizate cu versiunea PASW
18.0 a pachetului de programe de prelucrare şi analiză statistică a datelor; o versiune de
evaluare, deplin funcţională dar limitată în timp poate fi obţinută de pe site-ul
producătorului.

4.2. Descrierea interfeţei PASW/SPSS


PASW/SPSS înglobează o serie de funcţionalităţi ale sistemului de operare Windows şi
are un mod de utilizare asemănător programelor din suitele de birou (MS Office,
OpenOffice.org etc.), cu care cititorii sunt familiarizaţi, în cele ce urmează sunt
prezentate elementele interfeţei grafice a aplicaţiei, urmând ca detalii asupra
funcţionalităţii acestora să fie oferite pe parcursul lucrării.
Interfaţa PASW/SPSS cuprinde ferestre (care permit înregistrarea datelor, editarea şi
vizualizarea datelor şi a rezultatelor) şi meniuri specifice fiecărei ferestre, (care permit
efectuarea celor mai multe operaţii).

95
4.2.1 Ferestre

Data editor - se deschide automat la pornirea unei sesiuni prezintă conţinutul


fişierului de date; pot fi create noi fişiere şi pot fi modificate cele existente. Dacă sunt
deschise mai multe fişiere de date, există câte un editor separat pentru fiecare dintre
ele.
Aşa cum se observă, PASW/SPSS utilizează datele organizate în linii şi coloane: liniile
reprezintă cazurile (observaţiile), coloanele reprezintă variabilele cercetării; aspectul este
asemănător unei foi de calcul (Excel, OpenOffice Calc, Lotus 1-2-3 etc., dar este diferită.

Această fereastră poate fi vizualizată în două moduri, permiţând astfel


accesul la două categorii de informaţii prin activarea unuia din cele două tab-
uri situate în partea de stânga-jos a ferestrei:
- Data view - sunt afişate şi înregistrările fişierului de date într-o grilă,
asemănătoare foilor de calcul, coloanele reprezentând variabilele, iar liniile,

96
cazurile studiate; în acest mod este posibilă adăugarea/modificarea/ştergerea
înregistrărilor. În acest mod, pot fi introduse şi modificate valorile datelor din fişier.

- Variable View – sunt afişate şi pot fi modificate metadatele asociate variabilelor


(numele, tipul, numărul de cifre definit pentru afişarea numerelor, eticheta atribuită,
modul de declarare a valorilor lipsă, lărgimea coloanelor şi modul de aliniere al valorilor
înscrise în ele, scala de măsură a variabilei, rolul acesteia: variabilă independentă sau
dependentă, rol de partiţionare a datelor etc.). Prin intermediul acestui mod pot fi
declaraţi sau modificaţi parametri variabilelor.

Viewer – prezintă toate rezultatele analizelor statistice, tabelele şi graficele generate în


baza acestora; acestea pot fi editate, salvate sau exportate în diferite formate, pentru a
fi editate cu ajutorul programelor din suitele de birou sau incluse în prezentări.

Pivot Table Editor – permite editarea rezultatelor prezentate în tabele pivot: editare
text, transferul datelor între rânduri şi coloane, adăugare/modificare culori, prezentare
selectivă a informaţiilor. Fereastra Pivot poate fi accesată efectuând dublu click pe un
tabel sau din meniul Edit- Edit content al ferestrei Viewer; apar meniurile
corespunzătoare, care permit editarea.

97
Chart Editor – pune la dispoziţia utilizatorului meniurile de comenzi necesare editării
diagramelor: modificarea culorilor, a tipului de caractere utilizate şi a mărimii acestora,
comutarea între axele verticale şi orizontale sau chiar alegerea altui tip de grafic.

Text Output Editor – efectuând dublu click pe o porţiune de text care nu este inclus
într-un tabel pivot, devin accesibile meniurile care permit modificarea proprietăţilor
setului de caractere (fonturilor) utilizate: tip, mărime, culoare etc.

98
Syntax Editor. Deşi cele mai multe comenzi PASW/SPSS sunt accesibile prin
intermediul meniurilor şi al casetelor de dialog („modul interactiv” de utilizare a
pachetului de programe), o serie de opţiuni sunt disponibile doar în „modul sintaxă”,
prin utilizarea limbajului de comandă. De asemenea, acest mod de lucru permite
salvarea unor prelucrări şi analize efectuate, pentru a putea fi utilizate ulterior, în
situaţia repetării analizelor. Pentru aceasta, în caseta de dialog specifică unei operaţii,
după bifarea tuturor opţiunilor dorite, se apasă accesează funcţia Paste şi se salvează
sintaxa în fişierul dorit.

Ulterior, aceasta poate fi deschisă prin intermediul succesiunii de comenzi File – Open
– Syntax. Pentru a scrie direct comenzile într-o fereastră de nouă de sintaxă se
accesează meniul File – New– Syntax.

99
Script Editor – permite automatizarea anumitor sarcini: deschiderea şi salvarea
fişierelor, exportul graficelor şi diagramelor în diverse formate, personalizarea modului
de afişare a datelor în Viewer. Disponibilitatea limbajelor de scriptare depinde de
sistemul de operare (Basic pentru Windows, Python pentru celelalte platforme). Pentru
crearea unui nou script se vor selecta, meniurilor File – New – Script iar pentru rularea
unuia existent, Utilities - Run Script.
Dacă sunt deschise mai multe ferestre Output, rezultatele vor fi direcţionate spre
fereastra „desemnată”. În mod similar, dacă sunt deschise mai multe ferestre Syntax,
comenzile vor fi lipite în fereastra desemnată. Ferestrele desemnate sunt marcate cu
semnul plus, de culoare verde, plasat pe pictograma din bara de titlu şi nu trebuie
confundate cu ferestrele active, cele care sunt selectate la un moment dat.
Schimbarea ferestrei „destinată”, se face accesând meniul Utilities – Designate Windows

4.2.2 Meniuri
O altă categorie de elemente specifice interfeţei SPSS/PASW o constituie meniurile.
Acestea, în mod similar oricărei aplicaţii bazate pe interfeţe grafice, permit lansarea în
execuţie a comenzilor. Există meniuri comune şi meniuri specifice fiecărei ferestre.

4.2.2.1. Meniuri comune tuturor ferestrelor

File - este utilizat pentru crearea, deschiderea, salvarea sau exportul diferitelor tipuri de
fişiere: date, rezultate, comenzi etc.
Edit – permite efectuarea editărilor uzuale pentru date numerice, text sau obiecte
grafice: copieri, alipiri etc. în aceeaşi aplicaţie sau nu.

100
Meniul Edit include şi posibilitatea de configurare a programului SPSS/PASW

Aceasta conţine un număr de pagini, accesibile prin tab-urile din partea superioară a
ferestrei, care permit stabilirea atributelor implicite pentru diferite componente şi
operaţii ale programului.
View - controlează modul de afişare a uneltelor, a liniaturii, a identificatorilor de valori
(valorile pot avea ataşate denumiri explicite).

Utilities - permite afişarea informaţiilor despre variabile, definirea unor mulţimi de


variabile etc.
Add-ons – gestionează integrarea SPSS/PASW cu alte programe de analiză predictivă,
acces on-line la serviciile firmei producătoare, extensii de programabilitate, pentru
utilizatorii avansaţi.
Window – acces la comenzile de efectuare a operaţiilor asupra ferestrelor.

101
Help – este una din modalităţile de accesare a
documentaţiei care însoţeşte programul. Prin
intermediul acestui meniu, utilizatorul are acces la
următoarele categorii de resurse:
- subiecte/teme, cu opţiuni de căutare;
- ghiduri practice – descrieri pas cu pas ale
operaţiunilor care trebuie executate pentru a efectua
analizele şi prelucrările statistice;
- îndrumător statistic – asistă utilizatorul în
identificarea procedurii statistice pe care doreşte să o
aplice (statistici, rapoarte sau grafice);
- detalierea sintaxelor folosite de către program;
- descrierea algoritmilor utilizaţi pentru efectuarea calculelor statistice.
Acest meniu furnizează şi informaţiile necesare integrării SPSS/PASW cu R (mediu şi
limbaj pentru calcule statistice şi elaborarea diagramelor).
Un alt mod de accesare a documentaţiei îl constituie asistenţa sensibilă la context
(Context-sensitive Help) prin accesarea butoanelor Help din diferite casete de dialog,
apăsarea butonului din dreapta al mausului pe suprafaţa unui Pivot-Table şi selectarea
formularului What's This? sau prin poziţionarea cursorului oriunde deasupra un bloc de
sintaxă şi apăsarea tastei F1.

4.2.2.2. Meniuri specifice ferestrei Data Editor

Ferestrei Data Editor îi sunt specifice două meniuri: Data şi Transform.


Data – permite accesul la funcţii importante pentru pregătirea datelor în vederea
editării.
Se pot realiza modificări globale cum ar fi
- definirea proprietăţilor variabilelor;
- copierea (aplicarea) proprietăţilor unui fişier la fişierul de lucru;
102
- definirea unităţilor de timp/date utilizate (când este cazul);
- validarea datelor introduse (prin definirea unor reguli de validare sau prin utilizarea
unor reguli pre-existente), identificarea cazurilor
dublate sau neobişnuite;
- sortarea cazurilor şi a variabilelor;
- transpunerea/restructurarea bazelor de date
(crearea unei noi baze de date în care toate cazurile,
respectiv cazurile selectate devin variabile şi invers);
- adăugarea de cazuri sau variabile dintr-un alt fişier
de date;
- agregarea datelor în scopul sintetizării unor
informaţii;
- generarea unor fişiere de date care vor fi utilizate în
cazul unor anumite design-uri experimentale
(Orthogonal Design);
- separarea datelor în seturi diferite, pentru a fi
analizate în baza unor variabile de grupare;
- selectarea subgrupurilor de cazuri în baza unor
criterii (care includ variabile şi expresii complexe) sau
aleatoriu;
- ponderarea cazurilor pentru efectuarea unor analize statistice.
Toate aceste modificări sunt temporare dacă nu sunt salvate în fişierul iniţial.
Transform – include comenzile necesare obţinerii unor noi variabile prin calcule
sau recodificări ale variabilelor executate. De asemenea, prin intermediul acestui meniu
pot fi efectuate operaţiuni de:
- identificarea cazurilor care conţin anumite valori ale unor variabile selectate;
- crearea unor noi variabile, care conţin valori ale cazurilor precedente sau următoare;
- crearea unor noi variabile prin gruparea valorilor adiacente ale variabilelor existente
într-un număr limitat de categorii distincte (ex. crearea variabilelor categoriale din cele
scalare, reducerea numărului de categorii ale unei variabile ordinale);

103
- pregătirea datelor pentru analiză;
- asimilarea de ranguri cazurilor supuse analizei;
- simplificarea unor proceduri asimilate variabilelor de
tip „data şi timp”;
- crearea unor noi variabile bazate pe funcţiile
variabilelor de tip „serii cronologice” existente;
- înlocuirea datelor lipsă (ignorarea acestora afectează
validitatea datelor);
- generarea aleatorie de numere pentru a fi utilizate în
transformări sau eşantionări.
Şi în acest caz, modificările sunt temporare pentru
sesiunea curentă, dacă nu sunt salvate în fişierul iniţial.
Comenzile incluse în meniul prin intermediul căruia este
posibilă analiza datelor (Analyze) vor fi prezentate pe
parcurs, în contextul teoriilor care stau la baza
acestora.

4.2.3 Casete de dialog

Cele mai multe ferestre deschid casete de dialog. Acestea sunt utilizate pentru
selectarea variabilelor şi a opţiunilor
pentru analiză.
De obicei, casetele de dialog pentru
analize statistice şi pentru diagrame au
două componente de bază: lista
variabilelor sursă şi lista variabilelor
selectate.
Un alt element al casetelor de dialog îl constituie comenzile ( Controls). Majoritatea
casetelor de dialog prezintă următoarele butoane de comenzi:
- OK – rulează procedura;

104
- Paste – permite salvarea comenzilor procedurii, pentru a fi reutilizată sau editată, aşa
cum a fost descris în contextul prezentării ferestrei Syntax Editor;
- Reset – readuce caseta de dialog la setările implicite;
- Cancel – anulează setările efectuate după deschiderea casetei;
- Help – oferă informaţii de asistenţă contextuală.
În funcţie de opţiunile pe care le oferă prelucrările statistice, în partea din dreapta a
casetei de dialog apar butoane care deschid subdialoguri.
Subdialogul Option permite efectuarea unor prelucrări suplimentare.
Începând cu versiunea 18 a produsului (curentă în perioada elaborării prezentei lucrări),
a fost implementată tehnica bootstrap. Aceasta este o metodă robustă pentru
determinarea estimatorilor populaţiei studiate (media, mediana, coeficienţi de corelaţie
sau de regresie etc.) în condiţiile în care distribuţia
parametrică nu poate fi asumată sau când inferenţele
bazate pe distribuţia normală sunt greu de calculat.
Această procedura este încorporată sub formă de
subdialog în casetele de dialog ale procedurilor care
suportă această tehnică.
În funcţie de opţiunile utilizatorului ( Edit – Options),
pot fi afişate fie denumirea variabilelor, fie eticheta
acestora.
Această alegere, precum şi selectarea ordinii de
afişare a variabilelor sau afişarea informaţiilor despre acestea, devine posibilă plasând
cursorul deasupra unei variabile şi apăsând butonul din dreapta al mausului.
În figura următoare sunt prezentate sub forma unei hărţi mentale ( mindmap) etapele
necesare efectuării prelucrării şi analizei statistice a datelor; toate operaţiunile pot fi
efectuate prin intermediul comenzilor accesibile în ferestrele, meniurile şi casetele de
dialog ale interfeţei grafice a programului statistic PASW/SPSS.

105
4.3. Rezumat

106
Capitolul 5. Statistici descriptive cu SPSS/PASW

Modalităţile de descriere a variabilelor psihologice cu ajutorul pachetului de


programe PASW/SPSS depind în mod direct de tipul de variabilă, de nivelul la care au
fost efectuate măsurătorile. Astfel, dacă nivelul nominal al măsurării tabelele permite
întocmirea tabelelor de frecvenţă şi calculul valorii modale, rezultatele măsurărilor pe
scale de rapoarte permit calculul unor indici complecşi, incluzându-i, bineînţeles şi pe cei
specifici nivelurilor inferioare de măsurare.

5.1 Descrierea variabilelor categoriale


Pentru uşurinţa înţelegerii, în conţinutul capitolelor, descrierile numerice şi grafice
ale variabilelor au fost tratate special. În cele ce urmează, însă, având în vedere modul
de organizare şi de lucru a interfeţei grafice a programului PASW/SPSS, acestea vor fi
tratate simultan.
Pentru a descrie una sau mai multe variabile categoriale,
lansăm următoarea succesiune de comenzi:

Se deschide fereastra de dialog Frecvencies, prin intermediul căreia pot fi


selectate variabilele
supuse analizei (în
cazul de faţă a fost
selectată variabila
„structura” care
reprezintă componenta
organizaţională căreia
aparţin participanţii la
experiment..
În partea
dreaptă sunt plasate
butoanele care permit

107
accesul la subdialoguri: Statistics permite selectarea indicatorului tendinţei centrale
adecvat (în cazul de faţă, valoarea modala); subdialogul Graphs permite reprezentarea
grafică a variabilei sub forma graficului cu bare sau a diagramei circulare.
Pe lângă datele referitoare la modul de executare de către PASW/SPSS a
comenzilor, fereastra de rezultate prezintă următoarele elemente:
1. Sinteza cazurilor analizate şi valoarea modală (317 cazuri, 43 valori libere; valoarea
modală 4 – cei mai mulţi participanţi aparţin structurii codate cu numărul 4)
Statistics
structura
N Valid 317
Missing 43
Mode 4

2. Tabelul de frecvenţe: frecvenţe absolute, frecvenţe relative procentuale (raportate la


întregul eşantion sau la numărul de cazuri valide).
Structura
Cumulative
Frequency Percent Valid Percent
Percent
Valid 1 75 20.8 23.7 23.7
2 83 23.1 26.2 49.8
3 74 20.6 23.3 73.2
4 85 23.6 26.8 100.0
Total 317 88.1 100.0
Missing System 43 11.9
Total 360 100.0

108
3. Graficul, în funcţie de tipul selectat (cu bare sau circular).

Reprezentarea
variabilelor ordinale se
realizează urmând
aceeaşi succesiune de
paşi, cu menţiunea că
este permis calculul
valorii mediane şi că
pot fi supuse analizei
şi frecvenţele relative cumulate.

5.2 Descrierea variabilelor continue

5.2.1 Procedura Frecvencies

Urmând aceeaşi succesiune de comenzi ca în cazul anterior, vom avea acces din nou la
dialogul Frecvencies în care este selectată variabila „structura”. Verificând, vom observa
că au sunt marcate opţiunile selectate anterior. Reiniţializăm caseta de dialog apăsând
butonul corespunzător comenzii Reset, cu scopul de selecta opţiunile corespunzătoare
analizei variabilelor continue, astfel:

109
- indicatori ai tendinţei centrale: media şi mediana;
- indicatori ai formei distribuţiei: boltirea (Kurtosis) şi
înclinarea (Skewness);
- indicatori ai dispersiei: abaterea standard (estimată),
varianţa (estimată), rangul (amplitudinea), scorurile
minim şi maxim, eroarea standard medie. În
PASW/SPSS, abaterea standard şi amplitudinea sunt
calculate ca evaluări ale respectivelor valori pentru
populaţia studiată.
În subdialogul Charts va fi selectată opţiunea de creare a histogramelor, cu sau fără
reprezentarea curbei distribuţiei normale.
Fereastra de afişare a rezultatelor prezintă următoarele elemente:
- mărimea eşantionului şi valorile indicilor statistici solicitaţi:

110
Statistics
nevrotism
N Valid 317
Structura eşantionului
Missing 43
Mean 17.10 Valoarea şi eroarea
Std. Error of Mean .571
standard a mediei
Median 16.00 Mediana
Std. Deviation 10.169 Abaterea standard
Variance 103.418 Varianţa
Skewness .449 Indicatorii formei distribuţiei
Std. Error of Skewness .137
şi erorile standard ale
Kurtosis -.594
Std. Error of Kurtosis .273 acestora
Range 44 Amplitudine
Minimum 0
Valorile minime şi maxime
Maximum 44
Percentile 10 5.00
20 8.00
s Punctele de separaţie
………………………………………..
90 32.00

- tabelul frecvenţelor (cu rubricile prezentate anterior):


nevrotism
Frequenc Valid Cumulative
Percent
y Percent Percent
Valid 0 6 1.7 1.9 1.9
1 2 .6 .6 2.5

………………………………………………………………………..
44 1 .3 .3 100.0
Total 317 88.1 100.0
Missing System 43 11.9
Total 360 100.0

- histograma distribuţiei
111
Datorită numărului mare de intervale de grupare a datelor, nu ne putem face cu
uşurinţă o impresie despre forma distribuţiei. Se poate face un artificiu, în sensul
micşorării numărului acestora (prin intermediul opţiunilor din fereastra Chart Editor).
Astfel, histograma va avea următoarea formă:

112
Modificările de acest gen trebuie folosite cu prudenţă, deoarece o formă neregulată a
distribuţiei poate ascunde distribuţii multimodale, care, astfel, vor scăpa analizei
cercetătorului.

5.2.2 Procedura Descriptives

O altă opţiune pentru obţinerea indicatorilor statistici descriptivi ai variabilelor


continue este procedura Descriptives, care poate fi lansată prin următoarea succesiune
de comenzi:

Se deschide o casetă de dialog care permite accesul la subdialogul Options,


unde pot fi selectaţi indicatorii necesari analizei.
Rezultatele vor fi prezentate sub următoarea formă:

113
Descriptive Statistics
Minimu Maximu Std.
N m m Mean Deviation
nevrotism 317 0 44 17.10 10.169
Valid N 317
(listwise)

5.2.3 Procedura Explore

Această procedură permită descrieri grafice şi numerice mai elaborate ale variabilelor
continue. Procedura Explore poate fi lansată prin intermediul următoarei succesiuni de
comenzi:

Pe lângă elementele deja cunoscute, fereastra Output prezintă, în acest caz,


următoarele informaţii suplimentare:
- cele mai mari şi cele mai mici valori (cinci din fiecare categorie), cu numărul
observaţiei (cazului);
Extreme Values
Case
Number Value
nevrotis Highest 1 212 44
m …………………………………..
5 235 41
Lowest 1 247 0
……………………………………..
5 94 0a

- diagrama steam-and-leaf

114
nevrotism Stem-and-Leaf Plot

Frequency Stem & Leaf

26.00 0 . 00000011222222223334444444
62.00 0 . 55555555556666666666666667777777777888888888888888889999999999
58.00 1 . 0000000000000000111122222222222222222333333334444444444444
51.00 1 . 555555566666666666777777777777778888899999999999999
41.00 2 . 00000000001111111122222222333333334444444
30.00 2 . 555555555566666666667777779999
31.00 3 . 0000000111111122222222222334444
13.00 3 . 5666777788999
5.00 4 . 11234

Stem width: 10
Each leaf: 1 case(s)
- diagrama de tip Q-Q Plot (reprezentarea comparativă a percentilelor variabilei
analizate cu cele ale distribuţiei normale)

- grafic de tip Boxplot

115
5.2.4 Alte tipuri de descrieri grafice ale variabilelor

Meniul Graphs permite utilizatorului crearea de diagrame complexe, în raport de


obiectivele cercetării şi de natura variabilelor studiate.
Prin intermediul acestui meniu, sunt accesibile trei modalităţi de
creare a graficelor:
- Chart Buider – creare graficelor din modele predefinite sau din
elemente ale acestora, folosind tehnica Drag-and Drop;
- Graphboard Template Chooser – permite gestionarea şabloanelor de vizualizare a
datelor; diferenţa faţă de opţiunea anterioară este că se porneşte de la setul de dată şi
nu de la un anumit tip de grafic;
- Legacy Dialogs – pentru construirea graficelor în modalităţi specifice versiunilor mai
vechi ale programului (anterioare versiunii 16.0).

116
5.3. Rezumat

117
Capitolul 6. Statistica inferenţială, noţiuni de bază

6.1. Scorurile z şi curba normală


Utilizarea tehnicilor de prezentare şi descriere a datelor ne oferă, aşa cum am văzut,
informaţii asupra caracteristicilor fiecăreia dintre variabilele supuse măsurării. Statistica
descriptivă se ocupă de analiza datelor sub aspectul caracteristicilor lor intrinseci
(frecvenţa valorilor, indicatorii tendinţei centrale, ai împrăştierii sau formei distribuţiilor).
Dar scopul ultim al metodei ştiinţifice nu se limitează la descrierea datelor, ci vizează
evidenţierea relaţiilor dintre variabile şi, pe această bază, predicţia şi înţelegerea
fenomenelor psihice. Cercetarea ştiinţifică în psihologie constă în a identifica probleme, a
emite ipoteze şi teorii şi a testa validitatea lor cu ajutorul unor proceduri statistice
adecvate. Aceste proceduri fac parte din ceea ce se numeşte statistica inferenţială.
Pentru abordarea acesteia, vom introduce succesiv o serie de concepte şi proceduri
analitice fundamentale.

6.1.1. Scoruri standard (z)

În psihologie, atunci când măsurăm o anumită caracteristică a unui individ (timp de


reacţie, anxietate, inteligenţă, nivel de performanţă etc.) scopul implicit este acela de a
efectua comparaţii. Pentru aceasta însă, simpla expresie numerică a caracteristicii
respective nu este suficientă. Să presupunem că efectuăm interviuri în cadrul unui
examen de angajare şi întrebăm un candidat dacă ştie limba engleză, iar acesta ne
răspunde „am susţinut, de curând, un examen de limba engleză la care am obţinut 70
de puncte”. Dacă examenul şi modul de evaluare ne sunt total necunoscute, informaţia
nu ne spune mare lucru. Desigur, bazându-ne pe experienţa anterioară, putem face
nişte presupuneri, dar acestea nu ţin loc de certitudini.

Pentru a ne lămuri, ar trebui să-i punem candidatului câteva întrebări suplimentare:


Care este maximum şi minimum de puncte posibil la acel examen? (dacă maximul este
într-adevăr 100, iar minimul este 0, atunci putem spune că 70 este un scor mai aproape
de 100 decât de 0); Care este rezultatul mediu obţinut la acel examen? (dacă răspunsul
ar fi 60, înseamnă că 70 este o valoare peste medie cu 10 unităţi); În fine, dacă am dori
118
să apreciem cu maximă precizie semnificaţia cifrei 70, ar trebui să ştim care este
„împrăştierea” rezultatelor obţinute de participanţii la examen. Figura 6.1. de mai jos
plasează valoarea comunicată de candidatul nostru (70) în două distribuţii ipotetice,
având, ambele, media 60, dar împrăştieri diferite, să spunem 5, respectiv 20.

Figura 6.1.Comparaţia între două distribuţii cu aceeaşi medie (60), dar cu abateri
standard diferite(s1=5, s2=20)

Dacă privim cele două distribuţii putem face următoarele observaţii:

 Pentru ambele distribuţii, valoarea 70 este cu 10 unităţi peste medie (60)


 În cazul distribuţiei I, mai omogenă, scorul de 70 se plasează către extrema
valoare, în timp ce, în contextul distribuţiei II, cu împrăţtiere mai mare, este mai
aproape de medie decât de valorile superioare.
În cazul distribuţiei I, mai omogenă, scorul 70 se plasează către extrema valorilor, în
timp ce, în contextul distribuţiei II, cu împrăştiere mai mare, este mai aproape de medie
decât de valorile superioare.

Modalitatea de a exprima semnificaţia unei anumite valori dintr-o distribuţie prin


raportare la parametrii distribuţiei (medie şi abatere standard) este scorul standardizat z
(numit şi notă z sau scor z). Aceasta măsoară distanţa dintre o anumită valoare şi media
distribuţiei, în abateri standard:

(formula 6.1)

119
unde x reprezintă oricare dintre valorile distribuţiei.
Pentru cele două distribuţii de mai sus, scorurile z se calculează astfel:

Iar în cazul în care pentru distribuţia II am avea un scor de 45:

Semnul „–„ la rezultat ne arată că performanţa este mai mică decât media, mai precis, se
află la 0.75 abateri standard sub medie. Semnul „+” indică o valoare standardizată peste
medie, indicând, în exemplul de mai sus, că se plasează la o jumătate de abatere
standard deasupra mediei.

Scorul z se numeşte „scor standardizat” (notă standardizată), deoarece exprimă distanţa


unei valori faţă de media distribuţiei din care face parte în unităţi ale abaterii standard. De
aici decurge unul din avantajele lui importante, acela de a putea fi utilizat pentru a
compara valori care provin din distribuţii diferite, indiferent de unitatea de măsură a
fiecăreia.

Exemplu: Dacă un subiect obţine un scor echivalent cu z=+0.2 la un test de calcul


aritmetic şi un scor echivalent cu z=+0.1, la un test de reprezentare spaţială, se poate
spune că are o performanţă mai bună la primul test decât la al doilea.

6.1.1. Calcularea valorii atunci când cunoaştem parametrii scorului z

Dacă am calcula scorurile (notele) z pentru fiecare dintre valorile unei distribuţii, am
obţine o „distribuţie în scoruri z” a acelei distribuţii. În tabelul următor, distribuţia X a fost
transformată în distribuţie z.

Tabelul 6.1. Transformarea distribuţiei de valori x în distribuţie z x

X z
14 +0.50
11 -0.75

120
10 -1.17
16 +1.34
13 +0.08
N=5 N=5
∑X = 64 ∑X =0
m=12.8 m=0
s = 2.38 s=1
Utilizând proprietăţile de transformare a formulei de definiţie a scorului z putem calcula
o anumită valoare atunci când cunoaştem valoarea lui z şi parametrii distribuţiei, astfel:

(formula 6.2)
Atunci, x=z*s+m adică, pentru ultimul exemplu, x=-0,75*2,38+12,8=11

6.1.2. Proprietăţile scorurilor z

1.Media unei distribuţii z este întotdeauna egală cu 0. Aceasta rezultă din proprietatea
mediei de a se diminua corespunzător dacă se extrage o constantă din fiecare valoare a
unei distribuţii. Formula de calcul pentru z implică scăderea unei constante din fiecare
valoare a distribuţiei. Aceasta înseamnă că şi media noii distribuţii (z) se va reduce cu
constanta respectivă. Dar această constantă este însăşi media distribuţiei originale, ceea
ce înseamnă că distribuţia z va avea media egală cu zero, ca rezultat al diminuării mediei
cu ea însăşi.

2.Abaterea standard a unei distribuţii z este întotdeauna 1. Acest fapt decurge prin efectul
cumulat al proprietăţilor abaterii standard. Prima proprietate afirmă că în cazul scăderii
unei constante (în cazul scorurilor z, media) din valorile unei distribuţii, abaterea
standard a acesteia nu se modifică. A doua proprietate afirmă că în cazul împărţirii
valorilor unei distribuţii la o constantă, noua abatere standard este rezultatul raportului
dintre vechea abatere standard şi constantă. Dar constanta de care vorbim este, în cazul
distribuţiei z, chiar abaterea standard. Ca urmare, noua abatere standard este un raport
dintre două valori identice al cărui rezultat, evident, este 1.

121
6.1.3. Alte tipuri de scoruri standardizate(etalonarea rezultatelor la testele
psihologice pe baza mediei şi abaterii standard)

Scorurile z prezintă un avantaj important, permit compararea valorilor unei distribuţii şi a


valorilor provenind din distribuţii diferite, ca urmare a faptului ca se exprimă în abateri
standard de la medie. Totuşi se impune o anumită precauţie în comparaţia pe baza
scorurilor z atunci când distribuţiile au forme diferite şi, mai ales, asimetrii opuse.

Notele z au însă şi unele dezavantaje: se exprimă prin numere mici, cu zecimale, (greu
de manipulat intuitiv) şi, în plus, pot lua valori negative. Aceste dezavantaje pot fi uşor
înlăturate printr-un artificiu de calcul care să conducă la note standardizate convenabile,
ce corespund anumitor nevoi practice specifice. În tabelul de mai jos sunt descrise
câteva tipuri de note standard calculate pe baza notelor z.

Tabelul 6.2. Tipuri de scoruri standard

Tipuri de Formula Formula desfăşurată m s


scoruri bazată pe
STAN notele „z”

Note z z z = x - m /s 0 1
Note T
50+10*z T = 50 +10* x - m /s 50 10
(Thurstone
Note
50+14*z H = 50 +14* x - m /s 50 14
H(Hull)
QI
100+16*z QI =100 +16* x - m /s 100 16
(Binet)
QI
100+15*z QI =100 +15* x - m /s 100 15
(Wechsler
)SAT

(Scholast 500+100*z SAT = 500 +100* x - m/ s 500 100


Assessme
ntt Test)
Observaţii:

-Toate variantele sunt obţinute prin transformarea operată pe distribuţia de note z.

122
-La nici una dintre variante nu mai avem valori negative (cu condiţia ca distribuţia să nu
aibă o variabilitatea aberantă).
-Zecimalele nu mai sunt semnificative (ele rezultă din calcule, dar sunt ignorate).
-Distribuţiile variantelor oscilează în jurul unei valori medii specifice, sub care se află
50% din valori, şi peste care se află restul de 50% dintre valori.
-Scorurile standard mari indică valori mari, iar scorurile standard mici indică valori mici.
Acest fapt poate crea dificultăţi în unele cazuri. Să luăm următorul exemplu: Un subiect
realizează 145 răspunsuri corecte la un test de calcul aritmetic (m=120, s=12) şi un
timp de reacţie de 0.15 sec, la un test de reactivitate (m=0,11, s=0,05). În acest caz,
notele T corespunzătoare celor două performanţe sunt: T1=50+10*(145-120)/12=70,
respectiv T2=50+10*(0,15-0,11)/0,05=58. Cu alte cuvinte, ar rezulta că la ambele teste
subiectul nostru a obţinut un rezultat peste medie. Dar această concluzie este falsă, dacă
ţinem cont că la testul de reactivitate un timp mai mare înseamnă o performanţă mai
scăzută. Soluţia problemei constă în modificarea semnului expresiei de calcul, în funcţie de
semnificaţia calitativă a valorilor distribuţiei. În acest mod, rezultatul transformării în notă
standard la testul de reactivitate devine: T 2=50-10*(0,15-0,11)/0,05=42, ceea ce indică
exact semnificaţia de performanţă sub medie. Raportată la valoarea medie a distribuţiei
T, scorul 58 este echivalent cu 42, sub aspectul distanţei faţă de medie (8 unităţi). Diferenţa
constă în faptul că valoarea 42 exprimă şi în mod intuitiv, nu doar cantitativ, evoluţia
performanţei la test. O asemenea transformare nu este obligatorie, se poate utiliza oricare
dintre formule, cu semnul plus, sau minus. În orice caz, trebuie să precizăm semnificaţia
valorilor mari si mici pentru distribuţiile cu care operăm.

6.2. Curba normală (Gauss)


Reprezentarea grafică a rezultatelor măsurărilor reale poate lua diverse forme, curba
distribuţiei putând fi unimodală sau multimodală, aplatizată sau înaltă, simetrică sau
asimetrică. În statistică există însă un tip special de distribuţie, numită „distribuţie
normală”, care corespunde reprezentării grafice a unei caracteristici pentru care există un
mare număr de măsurări, tinzând spre infinit. Această distribuţie este numită „teoretică”
pentru că nu este rezultatul unui proces real de măsurare, ci reprezintă un model

123
teoretic. Conceptul de „curbă normală” (expresia grafică a „distribuţiei normale”) se
referă la un anumit tip de distribuţie teoretică care are câteva proprietăţi caracteristice:

-are formă de „clopot”. Cea mai mare parte a valorilor se concentrează în zona centrală
(medie);
-este perfect simetrică pe ambele laturi ale sale; linia curbei se apropie la infinit de axa
OX (orizontală), fără a o atinge vreodată;
-în conformitate cu proprietatea 2, de fiecare parte a mediei se află exact jumătate
dintre valorile distribuţiei.
Exemple de curbe normale:

Figura 6.2. Exemple de curbe normale


Imaginile de mai sus ilustrează diferite variante ale familiei de curbe normale, care
respectă, fiecare dintre ele, condiţiile de mai sus, chiar dacă au medii şi abateri standard
diferite.

6.2.1. Curba normală standardizată

Curba normală în care valorile sunt exprimate în scoruri z se numeşte curba normală
standardizată. Ea are toate proprietăţile enunţate mai sus, având însă şi parametrii
oricărei distribuţii z: m=0 şi s=1. Rezultă astfel că distribuţia normală standardizată (z)
este simetrică în jurul lui 0.

124
Figura 6.3. Curba normală standardizată (z)
Curba normală standardizată are câteva caracteristici care sunt figurate în imaginea de
mai sus şi pe care este important să le reţinem:

-Aproximativ 34% dintre scorurile distribuţiei normale se află între medie şi o abatere
standard deasupra mediei (z=+1)
-Între – 1z şi +1z se află aproximativ 68% dintre valorile distribuţiei
-Aproximativ 96% dintre scoruri se află între –2z şi +2z
Având în vedere distribuţia scorurilor z pe o curbă normală standardizată, aceasta poate fi
utilizată pentru a afla răspuns la întrebări precum: Care este procentajul de valori care
se află sub/peste o anumită notă z; între anumite note z; ori între medie şi o notă z?
Care este nota z corespunzătoare unui anumit procentaj de valori? Pentru a răspunde la
aceste întrebări, se utilizează o tabelă specială care conţine, sub formă de probabilităţi,
frecvenţele valorilor de sub curba normală z (Anexa 1).

Aşa cum vom vedea mai departe, curba normală are o importanţă aparte pentru analiza
statistică. Aceasta, deoarece se acceptă faptul că variabilele statistice s-ar distribui mai
ales sub aceasta formă dacă ar fi efectuate un număr mare (tinzând spre infinit) de
măsurări.

Exemple:

125
Să ne raportăm la distribuţia valorilor QI, pentru care media este egală cu 100 şi
abaterea standard 16

Exemplul 1: Care este procentajul oamenilor al căror scor QI este între 100 şi 110?
Pentru a răspunde la această întrebare, convertim valorile QI în scoruri z. 100(QI)=0(z).
Pentru 110(QI) se aplică formula:

X  m 110  100
  0,63
z= s 16

Aria de sub curba normală cuprinsă între valorile QI şi 100 şi 110 este reprezentată pe
figura următoare:

Citim tabela ariilor la intersecţia celulelor 0.6 cu 0.03. Valoarea este 0.2357 ceea ce,
exprimat în procente, este 23.57%

Conchidem că 23.57% din oameni au un QI cuprins între 100 şi 110)

Exemplul 2: Care este procentul oamenilor al căror QI este mai mare decât 125?
Convertim în note z:

X  m 125  100
z= s = 16 =+1.56
Aria de sub curba normală pentru scoruri QI mai mari decât 125 este reprezentată mai
jos:

126
Citim valoarea din tabel care corespunde intersecţiei celulei 1.5 cu 0.06, pentru a afla
procentajul dintre medie şi nota z +1.56. Găsim valoarea, exprimată în procente,
44.06%. Acesta este procentajul dintre medie şi z=+1.56.

Ştim că procentajul peste medie este 50%, ca urmare, procentajul celor peste QI=125
va fi 50-44.06=5.94.

Conchidem că 5.94% dintre oameni au un QI mai mare de 125 (z=1.56)

Exemplul 3: Care este scorul minim pe care trebuie să l obţină o persoană pentru a fi
între primii 5% din populaţie?

Ne reprezentăm aria de sub curbă care delimitează cele mai mari 5% dintre valorile z,
trebuind să aflăm valoarea corespunzătoare z, respectiv QI:

Aria dintre medie şi linia noastră este 50%-5%=45%. Căutăm în tabel valoarea cea mai
apropiată de 0.45 şi o găsim la intersecţia celulelor 1.6 cu 0.04. Deci, z=1.64 pentru
limita procentului de 5%.

127
Convertim scorul z=1.64 în valoare brută: X=m+z*s=100+(+1.64)*16=126.24
Conchidem că pentru a fi în primii 5% trebuie să obţinem un QI=126.24

Exemplul 4: Care este scorul care indică cei mai slabi 33%?

Ne reprezentăm limita de 33% în zona valorilor de sub medie:

Căutăm scorul z corespunzătoare acestui procent.

Mai întâi, scădem 33% din 50% cât reprezintă aria din partea inferioară a curbei.
Obţinem 17% Căutăm nota z corespunzătoare procentului de 17% de sub medie.

Valoarea 0.1700 (17%) se găseşte la intersecţia celulelor 0.4 cu 0.04, ceea ce indică
nota z=-0.44 (cu minus, pentru că ne aflăm în partea stângă a curbei).

Convertim nota z în valoare brută: X=m+z*s=100+(-0.44)*16=92.96.

Conchidem că este necesar un scor de cel mult 92.96 pentru a avea un QI între ultimii
33%.

6.2.2. Aria de sub curba normală văzută ca probabilitate

Valorile reprezentate pe curba normală nu reprezintă valori reale, rezultate în urma unui
proces de măsurare. Ele reprezintă valori ipotetice, distribuite astfel pe baza unui model
matematic (legea numerelor mari). Nimic nu ne împiedică să considerăm că valorile de
sub curba normală sunt rezultatul unei ipotetice extrageri aleatoare. Pe măsură ce
„extragem” mai multe valori, curba de distribuţie a acestora ia o formă care se apropie
de forma curbei normale.

128
Extrăgând „la infinit” valori aleatoare, vom obţine o distribuţie normală perfectă,
exprimabilă printr-o curbă normală perfectă.

Din cele spuse mai sus, rezultă faptul că valorile din zona centrală a curbei sunt mai
„frecvente” (mai multe), pentru că apariţia lor la o extragere aleatoare este mai
„probabilă”. În acelaşi timp, valorile „mai puţin probabile”, apar mai rar şi populează
zonele laterale, din ce în ce mai extreme, ale distribuţiei (curbei). Probabilitatea înseamnă
„frecvenţa relativă a apariţiei unui eveniment”. Subiectiv, se traduce prin „cât de siguri
putem fi că acel eveniment apare”. Dacă probabilitatea reprezintă raportul dintre
evenimentul favorabil şi toate evenimentele posibile, atunci valoarea ei variază între 0 şi
1. Ea poate fi exprimată şi în procente. De exemplu, probabilitatea de 0.05 corespunde
unui procentaj de apariţie de 5%.

Utilizând simbolul p (de la „probabilitate”), spunem că dacă p<0.05 înseamnă că


evenimentul are mai puţin de 5% şanse să apară, în condiţiile unei distribuţii
corespunzătoare curbei normale. Procentajul ariilor de sub curba normală poate fi citit
deci, şi ca probabilitate a distribuţiei. De exemplu, probabilitatea de a avea un scor între
medie şi z=+1 este de p=0.34, iar probabilitatea de avea un scor z=+1.65 sau mai
mare, este mai mică de 0.05 (p<0.05).

6.2.3. Distribuţii reale şi distribuţii normale z

Caracteristicile curbei normale şi frecvenţa cu care se face apel la aceasta în studiile


statistice determină adesea interpretări greşite. De aceea se cuvine să insistăm asupra
faptului că distribuţia normală reprezintă un model teoretic care se consideră că
aproximează de o manieră mulţumitoare cele mai multe dintre distribuţiile caracteristicilor
naturale, incluzându-le şi pe cele psihice. Cu toate acestea, distribuţiile reale pe care le
descoperă psihologii în studiile lor nu au niciodată parametrii unei curbe normale
perfecte. Acest lucru este practic imposibil dacă ne gândim că o curbă normală are
limitele deschise, mergând spre infinit, în timp ce distribuţiile reale sunt întotdeauna
finite. În ciuda acestui neajuns, aproximarea oferită de modelul teoretic al curbei
normale este considerată acceptabilă din punct de vedere ştiinţific.

129
Un alt aspect care poate conduce la interpretări eronate este exprimarea valorilor curbei
normale în scoruri z. Acest fapt este înţeles adesea cu sensul că transformarea în scoruri
z a unei distribuţii o transformă automat într-o distribuţie normală, ceea ce este o
concluzie profund greşită. Convertirea valorilor unei distribuţii în scoruri z nu modifică
forma distribuţiei. Distribuţia normală z este o distribuţie teoretică, în timp ce o distribuţie
z oarecare are forma distribuţiei valorilor originale.

6.2.4. Etalonarea rezultatelor la testele psihologice pe baza diviziunilor


procentuale ale curbei distribuţiei normale(clasele normalizate)

Un motiv principal al acestei proceduri constă în faptul că cele mai multe distribuţii ale
rezultatelor brute, mai ales pentru teste de abilităţi, sunt aproape de curba normală a lui
Gauss.
Rezultatele standard normalizate sunt rezultate standard exprimate în termenii unei
distribuţii ce a fost transformată pentru a se potrivi curbei normale de distribuţie.
Există diferite modalităţi de a normaliza, de a diviza valoric curba normală în unităţi
standard(clase): 5, 7, 9, 10, 11 clase normalizate.
Paşii procedurii includ: calcularea tabelului de frecvenţe şi împărţirea lotului de subiecţi
în unităţi procentuale egale, respectiv intervale între repere care nu sunt echidistante, ci
în funcţie de numărul de clase ales, pe baza frecvenţei procentuale cumulate crescător.
Se preferă un număr impar de clase(5, 7, 9, 11) pentru ca reperul clasei de mijloc, cea
mai consistentă( ca frecvenţă procentuală), să împartă distribuţia în clase superioare şi
clase inferioare nivelului mediu(clasei de mijloc). Sistemul de etalonare în 10 clase
normalizate sugerează sistemul docimologic de notare a elevilor şi studenţilor cu note de
la 1 la 10, şi conţine două clase consistente şi egale în mijlocul distribuţiei(clasele 5 şi 6,
adică nivelul mediu-inferior, respectiv, mediu-superior).
5 clase normalizate
Etalonul constituit în 5 clase normalizate are ca procente: 6.7%, 24,2%,38.2%,
24.2% şi 6.7% dintre subiecţii lotului de referinţă.
7 clase normalizate

130
Etalonul în 7 clase normalizate are în vedere următoarele diviziuni procentuale:
4.8%, 11.1%,21.2%, 25,8%,21,2%,11.1% şi 4.8%
9 clase normalizat -Stanine (stens)
Etalonul în nouă clase, staninele, se calculează având ca procente: 4.0%.6.6%,
12.1%,17.5%, 19.6%, 7.5%,12.1%,6.6%,4.0%.
10 clase normalizate
Etalonul în 10 clase normalizate se calculează prin cumularea următoarelor
procente: 2,28%, 4,40%, 9,19%, 14,98%, 19,15%, 19,15%, 14,98%, 9,19%,
4,14%, 2,28%.
11 clase normalizate
Etalonul în 11 clase, de obicei se utilizează pentru testele de personalitate şi are în
vedere următoarele diviziuni
procentuale:3.6%,4.5%,7.7%,11.6%,14.6%,16.0%,14.6,11.6%,7.7%,4.5%,
3.6%.
Acest tip de transformări nonlineare se efectuează numai când există un eşantion
numeros şi reprezentativ, şi când deviaţia standard de la rezultatele testelor se
datorează defectelor testului şi nu caracteristicilor eşantionului sau altor factori care
afectează eşantionul. Când distribuţia reală a rezultatelor brute se apropie de curba
normală de distribuţie, rezultatele standard derivate linear şi rezultatele reale la teste,
vor fi aproape identice. În astfel de situaţii, rezultatele standard şi clasele normalizate
vor servi aceluiaşi scop.
Există şi etaloane care divizează distribuţia rezultatelor la teste în 4 clase normalizate
denumite Quartile: distribuţia este divizată în 4 părţi (sfert, quartil).
Reamintim şi primele diviziuni standardizate(etaloane din ce în ce mai puţin utilizate în
practica psihologică), care impart distribuţia rezultatelor la teste în unităţi egale de
frecvenţă cumulată procentual, şi anume percentilele(centilele), care divizează
distribuţia în 100 de părţi şi decilele, care impart distribuţia în 10 părţi egale.
6.2.5. Rezumat

131
1.Scorul standard z exprimă distanţa dintre o valoare a distribuţiei şi media acesteia,
exprimată în abateri standard.
2. Media scorurilor z ale unei distribuţii este întotdeauna egală cu 0.
3. Abaterea standard a scorurilor z ale unei distribuţii este întotdeauna egală cu 1.
4. Alte tipuri de scoruri standard (QI, T, Hull, SAT etc.) se calculează pe baza formulei
scorului z, utilizând media şi abaterea standard pentru obţinerea unei valori convenabile
sub aspectul formei de expresie, realizând astfel, etaloane pentru interpretarea
rezultatelor la testele psihologice, atunci când sunt obţinute pe eşantioane
reprezentative pentru anumite populaţii.
5. Cele mai utilizate note standard(etalon) în practica psihologică sunt notele distributive
T(Thurstone), având media de 50 şi abaterea standard de 10.
5. Curba normală (Gauss) este o distribuţie teoretică, caracteristică populaţiilor de valori,
are o formă de clopot, este perfect simetrică şi asimptotică la axa Ox (poate lua,
teoretic, valori oricât de mari sau oricât de mici).
6. Curba normală z reprezintă o distribuţie normală (Gauss) transformată în scoruri z.
Aceasta poate exprima orice distribuţie, indiferent de forma de exprimare a valorilor
originale.
7. Distribuţiile reale, transformate în distribuţii z , nu îşi modifică forma originală.
8. Alte procedee de etalonare a rezultatelor la testele psihologice obţinute pe baza
diviziunilor procentuale ale curbei distribuţiei normale sunt clasele normalizate(5, 7, 9,
10 şi 11 clase).Clasele normalizate se constituie ca norme etalon pentru interpretarea
rezultatelor la testele psihologice).
9. Etalonul în 11 clase, de obicei se utilizează pentru testele de personalitate(Cattell,
Eysenck).
10. Primele diviziuni standardizate, ca norme-etaloan din ce în ce mai puţin utilizate în
practica psihologică, împart distribuţia rezultatelor la teste în unităţi egale de frecvenţă
cumulată procentual, şi anume percentilele(centilele), care divizează distribuţia în 100
de părţi şi decilele, care impart distribuţia în 10 părţi egale.

132
6.2.6. Exerciţii

La evaluarea psihologică în scop de selecţie a candidaţilor la facultatea de medicină


militară s-a aplicat şi testul de inteligenţă generală neverbală Domino 48(D48). Unul
dintre candidaţi a obţinut scorul 43 la acest test. Presupunând că inteligenţa generală
neverbală a populaţiei de candidaţi la facultatea de medicină militară ar avea o distribuţie
normală, cu media 34 şi abaterea standard de 4.6, calculaţi răspunsul la următoarele
întrebări:

1.Care este scorul z corespunzător studentului respectiv?


2.Care este procentajul valorilor posibile între valoarea 43 şi medie?
3.Care este procentajul valorilor mai mari decât 43?
4.Care este procentajul scorurilor mai mici de 43?
5.Care este probabilitatea de avea un scor mai mare de 40?
6.Care este probabilitatea de a avea un scor mai mic de 29?
7.Care este probabilitatea de a avea un scor cuprins între 31 şi 33?
8.Care este scorul minim pe care îl poate avea o persoană pentru a intra în primii 10%
dintre subiecţi?
9.Care este scorul maxim pe care trebuie să îl obţină cineva pentru a se afla printre
ultimii 15%?
(Verificaţi răspunsurile corecte la secţiunea 14. Rezolvări şi explicaţii la
exerciţiile din volum, Capitolul 6, exerciţiile 6.2.6)

6.3.Distribuţia mediei de eşantionare

Atunci când constituim un eşantion de studiu nu facem decât să utilizăm doar


unul dintre eşantioanele posibil a fi selecţionate (alese, constituite, extrase) din
populaţia cercetării. Dacă am selecta mai multe eşantioane din aceeaşi populaţie,
fiecare dintre ele ar fi caracterizat prin indicatori sintetici specifici, vor avea, fiecare,
media şi abaterea lor standard. Imaginea de mai jos sugerează situaţia descrisă:

133
Dacă fiecare dintre cele patru eşantioane de valori are propria sa medie, atunci
distribuţia mediilor tuturor eşantioanelor extrase se numeşte distribuţia mediei de
eşantionare sau, mai scurt, distribuţia de eşantionare. La rândul ei, distribuţia mediilor
are şi ea o medie, numită medie de eşantionare, şi care se calculează, evident, după
următoarea formulă:

unde µ este media populaţiei, valorile m sunt mediile fiecărui eşantion constituit, iar k
este numărul eşantioanelor.

Dacă am extrage toate eşantioanele posibile dintr-o populaţie, atunci media de


eşantionare este identică cu media populaţiei. Pentru exemplificare, să presupunem că
avem o „populaţie” constituită din valorile 1,2,3,4 şi să ne propunem constituirea
tuturor eşantioanelor posibile de câte 3 valori. Tabelul de mai jos ilustrează această
situaţie:
Tabelul 6.4. Distribuţia de eşantionare pentru o populaţie finită de valori(1, 2, 3, 4,)

Populaţia Eşantioane Distribuţia


mediei de eşantionare
1 1,2,3 m1=2.00
2 1,2,4 m2=2.33
3 3,4,1 m3=2.67
4 2,3,4 m4=3.00
µ=2.5 Toate Σ=10.00
σ=1.29 eşantioanele m=10/4=2.5
posibile pentru
N=3
Aşa cum se observă, dacă extragem toate eşantioanele posibile (în acest caz 4)
dintr-o populaţie de valori, atunci media mediilor eşantioanelor extrase (denumită medie
134
de eşantionare) este identică cu media populaţiei (în cazul dat: m=µ=2.5). Datele din
tabel ne mai arată şi faptul că media fiecărui eşantion oscilează (variază) în jurul
mediei de eşantionare. De aceea ele pot fi considerate o estimare a acesteia din urmă,
în ciuda impreciziei pe care o conţine fiecare. Această imprecizie se numeşte eroare de
estimare. Desigur, exemplul are o valoare de ilustrare teoretică deoarece, în practică,
niciodată nu se ajunge la selectarea tuturor eşantioanelor posibile dintr-o anumită
populaţie de valori.

6.3.1.Împrăştierea distribuţiei de eşantionare (eroarea standard a mediei)

Distribuţia de eşantionare nu are aceeaşi împrăştiere ca şi distribuţia valorilor


individuale ale variabilei de origine. Aceasta pentru că, la nivelul fiecărui eşantion, o
parte din împrăştierea totală este „absorbită” de media fiecărui eşantion în parte. Cu
cât eşantioanele sunt mai mari, cu atât media fiecărui eşantion tinde să fie mai
apropiată de media variabilei originale şi, implicit, abaterea standard a distribuţiei de
eşantionare este mai mică prin comparaţie cu abaterea standard a variabilei.
Exemplu: Să considerăm populaţia valorilor 1,2,3,4,5,6,7,8,9,10, pentru care am
calculat µ=5.5 şi σ=3,0276. Am extras, cu ajutorul unui program statistic, cinci
eşantioane aleatoare (pentru uşurinţa calculelor, am ales pentru fiecare eşantion N=3).
Iată cum se prezintă mediile şi abaterile standard pentru cele cinci eşantioane
selectate:

Tabelul 6.5.mediile şi abaterile standard pentru 5 eşantioane din aceeaşi populaţie de


valori(1,2,3,4,5,6,7,8,9,10)

m1=5.00 m2=4.5 m3=4.0 m4=2.5 m5=5.5


s1=5.65 s2=4.94 s3=4.24 s4=2.12 s5=6.36
În acest exemplu, cele cinci eşantioane nu sunt toate, ci doar o parte din
eşantioanele posibile de 3 valori extrase din populaţia cercetată. Media distribuţiei de
eşantionare pentru acest exemplu este:

135
µ =(m1 + m2 +m3 +m4 +m5)/5 = 4,3 (formula 6.1)

În ceea ce priveşte împrăştierea distribuţiei de eşantionare, aceasta este, aşa cum am


spus, mai mică decât împrăştierea variabilei la nivelul întregii populaţii, deoarece o parte
a împrăştierii generale se concentrează (se „pierde”) în media fiecărui eşantion extras.
Ca urmare, abaterea standard a distribuţiei de eşantionare este o fracţiune din abaterea
standard a populaţiei, fiind dependentă de mărimea eşantionului. Mai precis, fără a
intra în detalii explicative, abaterea standard a distribuţiei de eşantionare este egală
cu √ N din abaterea standard a populaţiei, unde N este volumul eşantionului.
Deoarece împrăştierea mediei de eşantionare arată cât de mult se abat aceste medii de
la media populaţiei, abaterea standard a mediei de eşantionare este denumită eroare
standard a mediei şi se calculează cu formula:

unde sm este eroarea


Formulastandard
6.2. a mediei de eşantionare, σ este abaterea
standard a populaţiei, iar N este volumul eşantionului. În cazul distribuţiei de mai sus,
eroarea standard a mediei este

Pentru că, în mod obişnuit, abaterea standard a populaţiei nu este cunoscută,


eroarea standard a mediei de eşantionare se calculează utilizând abaterea standard a
eşantionului, care reprezintă o estimare a împrăştierii la nivelul populaţiei.

Figura de mai jos sugerează foarte bine modul în care, prin creşterea volumului
eşantionului, media eşantionului se apropie tot mai mult de media populaţiei, cu alte
cuvinte, comportă o eroare din ce în ce în mai mică faţă de aceasta.

136
Figura 6.4. Variaţia formei distribuţiei t în funcţie de gradele de libertate

Expresia de „eroare standard a mediei” poate fi mai greu de înţeles, dat fiind
faptul că este folosită pentru a defini un indicator al împrăştierii, în timp ce are în
compunere cuvântul „medie”. Trebuie însă să reţinem faptul că acest indicator
măsoară cât de departe poate fi media unui eşantion de media populaţiei din care a
fost extras. Altfel spus, câtă „eroare” poate conţine media unui eşantion în estimarea
mediei populaţiei. Având în vederea faptul că la numitor avem o expresie bazată pe N
(volumul eşantionului), este limpede de ce, cu cât eşantionul este mai mare, cu atât
eroarea standard a mediei este mai mică.

6.3.2.Teorema limitei centrale

În exemplele date anterior am extras eşantioane din populaţii foarte mici de


valori. Problema este că, dacă am avea populaţii atât de mici, atunci nu am avea nevoie
să facem studii pe bază de eşantion, ci am putea investiga fără dificultate întreaga
populaţie. În realitate populaţiile care fac obiectul de interes al cercetărilor de psihologie
sunt prea mari pentru a fi accesibile în întregimea lor. Şi chiar dacă ar fi accesibile, ar fi
prea costisitor să fie investigate integral. În acest caz se pune problema măsurii în care
putem estima caracteristicile statistice ale distribuţiei populaţiei (media, abaterea
standard) pe baza aceloraşi indicatori, calculaţi doar la nivelul unui anumit eşantion,
selectat pentru studiu.

137
Soluţia acestei probleme rezidă în teorema limitei centrale2 care certifică două
adevăruri statistice fundamentale:
-Cu cât numărul eşantioanelor realizate dintr-o populaţie (tinzând spre infinit) este
mai mare, cu atât media distribuţiei de eşantionare se apropie de media populaţiei.
-Distribuţia mediei de eşantionare se supune legilor curbei normale, chiar şi atunci
când distribuţia variabilei la nivelul întregii populaţii nu are un caracter normal, cu
condiţia ca volumul eşantioanelor să fie „suficient de mare”. Cu alte cuvinte,
distribuţia mediei de eşantionare se apropie de distribuţia normală, cu atât mai mult
cu cât volumul eşantionului este mai mare.

Teorema limitei centrale este adevărată în următoarele condiţii fundamentale:


a. eşantioanele sunt aleatoare sau neafectate de erori (bias);
b. valorile care compun eşantioanele sunt independente unele de altele
(măsurarea unei valori nu este influenţată de măsurarea altei valori din
eşantion);
c. eşantioanele au acelaşi volum de valori (subiecţi).

Utilitatea teoremei limitei centrale constă în faptul că ea permite fundamentarea


inferenţelor statistice fără a ne preocupa prea mult de forma distribuţiei valorilor
individuale la nivelul populaţiei. Este de ajuns să utilizăm un eşantion „suficient de mare”
pentru a ne putea asuma presupunerea unei distribuţii normale la nivelul mediei de
eşantionare.
Întrebarea care se pune este, însă, cât de mare trebuie să fie un eşantion pentru
a putea fi considerat „suficient de mare” ? Fără a intra în amănunte, vom spune că, Pe
această bază orice eşantion având cel puţin 30 de valori este considerat „eşantion mare”
în timp ce orice eşantion cu mai puţin de 30 de valori este considerat „eşantion mic”.
Pentru a înţelege mai bine modul în care se distribuie mediile de eşantionare vom
apela la un set de imagini obţinute prin simulare computerizată. Au fost luate în
considerare distribuţiile a două variabile. Prima, cea din stânga, nu are un caracter
normal în timp ce a doua, din dreapta, are un caracter normal. Pentru fiecare dintre ele

138
au fost simulate distribuţii de eşantionare pentru eşantioane progresive ca volum: 2, 10,
25, 50 sau 100 de valori. Figurile de mai jos ne ajută să desprindem două concluzii:
1.indiferent de forma distribuţiei variabilei, distribuţia de eşantionare tinde spre curba
normală, pe măsură ce volumul eşantionului creşte.
2.dacă distribuţia variabilei la nivelul populaţiei este normală, atunci distribuţia de
eşantionare atinge o formă normală pentru eşantioane de volum mai mic.
În stânga, distribuţia valorilor individuale este una bimodală. Cu toate acestea, pe
măsură ce se constituie eşantioane mai mari şi se reprezintă grafic mediile acestora,
distribuţia mediei de eşantionare capătă o formă care se apropie, progresiv, de forma
distribuţiei normale.
În dreapta, unde distribuţia valorilor individuale (n=1) este apropiată de forma
normală, media de eşantionare se apropie de forma normală începând de la eşantioane
de volum mai mic.

În concluzie, distribuţia mediei de eşantionare are o evoluţie diferită de distribuţia


valorilor individuale ale unei caracteristici. Chiar şi atunci când acestea din urmă nu se
distribuie după regulile curbei normale, mediile eşantioanelor tind spre o distribuţiei
normală dacă volumul lor este suficient de mare. Mărimea eşantionului trebuie să fie de
cel puţin 30 de valori pentru a avea încredere că teorema limitei centrale se verifică. Dar
chiar şi eşantioane de volum mai mic pot avea medii ce se plasează pe o distribuţie
normală, dacă provin din populaţii normale. Din păcate, forma distribuţiei la nivelul

139
populaţiei nu este aproape niciodată cunoscută. În acest caz singurul lucru pe care îl
putem face este să utilizăm, ori de câte ori ne putem permite, „eşantioane mari”, adică
de cel puţin 30 de valori, şi chiar mai mari, dacă acest lucru este posibil. Cu toate
acestea, aşa cum vom vedea mai departe, există soluţii statistice şi pentru eşantioane
mai mici de 30 de valori3.

6.3.3. Scoruri standardizate z pentru eşantioane (grupuri)

Ne vom referi acum la exemplul anterior, în care avem cinci eşantioane extrase
dintr-o populaţie de 10 valori. Dacă avem media distribuţiei de eşantionare şi abaterea
standard a acesteia (calculată ca eroare standard a mediei, cu formula 3.1), atunci
putem exprima media unui eşantion oarecare, ca scor standardizat z, într-o manieră
similară cu scorul standardizat z pentru o valoare oarecare. Rostul acestei transformări
ar fi acela de a vedea în ce măsură media eşantionului de studiu se îndepărtează de
media populaţiei de referinţă. Cu alte cuvinte, în ce măsură rezultatul obţinut pe eşantion
este unul „obişnuit” (mai aproape de media populaţiei) sau unul „neobişnuit” (mai
îndepărtat de media populaţiei).

Formula de calcul este foarte asemănătoare cu formula lui z pentru valori individuale:

(formula 6.3)

unde m este media eşantionului, µ media populaţiei, iar sm este eroarea standard a
mediei.

Dacă presupunem că obiectul studiului îl face eşantionul 1, atunci putem calcula mai

întâi eroarea standard a mediei, astfel:

În exemplul nostru, limitat la o populaţie cunoscută, am putut calcula


abaterea standard a populaţiei (σ=3.02), dar pentru situaţii reale, cu populaţii

140
nelimitate, acest lucru nu este posibil. În astfel de cazuri se acceptă faptul că
abaterea standard a populaţiei este „suficient de bine reprezentată” de abaterea
standard a eşantionului extras din aceasta. Ca urmare, dacă nu aveam abaterea
standard a populaţiei, am fi putut utiliza în formula erorii standard a mediei
abaterea standard a eşantionului (în cazul nostru s 1=5.65 în loc de σ=3.02). Mai
departe, scorul standard z pentru eşantionul 1, se calculează astfel:

Exemplu:
Să presupunem că, la un examen de cunoştinţe de statistică, o grupă de 45
de studenţi obţine un scor mediu de m=28.5 puncte. Presupunând că media pe
populaţia studenţească care a mai dat acest examen (calculată de-a lungul anilor

Calculăm apoi scorul z pentru grup:

anteriori) este µ=27.3, cu o abatere standard σ=8.2, trebuie să aflăm care este
performanţa grupei respective transformată în notă z. Calculăm mai întâi abaterea
standard a mediei:
Dacă vrem să ştim unde se plasează performanţa grupului nostru pe o
curbă normală, atunci ne uităm pe tabela notelor z şi găsim, în dreptul scorului
z=0.98, valoarea tabelară 0.3365. Aceasta poate fi interpretat în mai multe feluri.
De exemplu, putem spune că procentul performanţelor posibile peste nivelul
grupului nostru este 50%-33%, adică 17%. Sau, în termeni probabilistici, putem
sune şi că: „probabilitatea de a avea o grupă (un eşantion, de aceeaşi mărime)
care să obţină un scor mai bun la un examen de statistică (cu aceleaşi întrebări)
este de 0.17”.6.4. Ipotezele metodei ştiinţifice

141
6.4. Ipotezele metodei ştiinţifice

Să ne imaginăm că un psiholog şcolar îşi pune întrebarea dacă elevii participanţi la


olimpiadele şcolare au un nivel de inteligenţă (QI) superior elevilor în general. Dacă
acceptăm că această problema prezintă interes din punct din vedere practic-pedagogic
sau ştiinţific, atunci se justifică transformarea ei într-o problemă de cercetare. În esenţă,
această problemă ar putea fi formulată astfel: „Elevii participanţi la olimpiade sunt mai
inteligenţi decât toţi elevii în general, fie ei participanţi sau nu la olimpiade?”.

6.4.1. Ipoteza cercetării

În mod obişnuit, o cercetare ştiinţifică se bazează pe estimarea unui rezultat aşteptat,


denumit ipoteză. În cazul nostru, psihologul se poate aştepta în mod legitim ca
participanţii la olimpiadă să fie mai inteligenţi decât elevii în general. Acest rezultat
„aşteptat”, „prefigurat”, se numeşte ipoteza cercetării, fiind codificată cu H 1. Am putea
formaliza ipoteza cercetării astfel:

H1 → mpo≠meg

unde mpo reprezintă media inteligenţei populaţiei participanţilor la olimpiade, iar m eg


reprezintă media inteligenţei populaţiei elevilor în general.

În conformitate cu ipoteza cercetării, există două populaţii distincte sub aspectul


nivelului de inteligenţă, cea a elevilor participanţi la olimpiade şi cea a elevilor în
general.

6.4.2 Ipoteza statistică (de nul)

Având în vedere că este imposibil să evalueze inteligenţa tuturor participanţilor la


olimpiade, psihologul cercetător trebuie să găsească un răspuns la problema cercetării
sale cu ajutorul unui eşantion. În acest scop, selectează la întâmplare, din populaţia de
participanţi la olimpiade, un grup de 30 de elevi, cărora le aplică un test de inteligenţă
generală. Să presupunem că analiza rezultatelor indică pentru acest grup o medie a
coeficientului de inteligenţă m=106 şi o abatere standard s=7. Amintindu-ne că media

142
valorilor QI la nivelul întregii populaţii este µ=100 (σ=15)4, se poate trage concluzia că
elevii din populaţia de olimpici sunt mai inteligenţi decât cei din populaţia generală de
elevi? Aparent diferenţa de 6 unităţi QI în favoarea eşantionului cercetării i-ar îngădui o
astfel de concluzie. Rigoarea ştiinţifică îl obligă însă să observe că generalizarea mediei
eşantionului de cercetare asupra întregii populaţii de elevi olimpici comportă anumite
riscuri. Eşantionul cercetării, compus aleatoriu din elevi participanţi la olimpiade, nu este
decât unul din eşantioanele de olimpici care ar fi putut fi selectat. Astfel, faptul că
eşantionul său are un QI mediu mai mare decât media populaţiei se poate încadra în
caracteristica oricărei medii de eşantion de a oscila în jurul mediei populaţiei din care
este extras. Ar fi posibil deci, ca valoarea medie de 106 să fie doar rezultatul hazardului,
care face ca mediile eşantioanelor extrase din aceeaşi populaţie să varieze în jurul mediei
populaţiei.

Ca urmare, pentru a decide cu privire la ipoteza cercetării („olimpicii sunt mai inteligenţi
decât elevii în general”) cercetătorul trebuie să evalueze probabilitatea ca media
eşantionului cercetării să fie rezultatul hazardului de eşantionare. Rezultă de aici că,
pentru a putea afirma că olimpicii sunt mai inteligenţi decât media populaţiei, cercetătorul
trebuie să dovedească faptul că nivelul de inteligenţă al eşantionului de olimpici este mai
mare decât al unui eşantion care ar fi fost extras absolut la întâmplare din populaţia
generală de elevi.
4
În realitate, media QI este diferită în funcţie de vârstă, dar, pentru exemplul nostru,
vom accepta că populaţia generală de elevi are o medie de 100 şi o abatere standard de
15.

Procedura statistică care se bazează pe acest raţionament se numeşte „ipoteză de nul”


(se utilizează şi alte variante: „ipoteza diferenţei nule” sau, pur si simplu, „ipoteză
statistică”). Respingerea ei implică o dovadă indirectă a validităţii ipotezei cercetării, şi
se bazează pe un scenariu „negativ” (similar cu „a pune răul în faţă”). Ipoteza de nul se
formulează ca opusul ipotezei cercetării. În cazul nostru ipoteza de nul va fi exprimată
astfel: „participanţii la olimpiadă nu au o inteligenţă mai mare decât populaţia de elevi în
general”.

143
Ipoteza de nul este simbolizată cu H0, iar expresia ei formală este:

H1 → mpo=meg

ceea ce semnifică faptul că mediile celor două populaţii comparate nu diferă, ci sunt
egale. Cu alte cuvinte, ipoteza de nul afirmă că nu există două populaţii distincte sub
aspectul nivelului de inteligenţă, ci una singură. Elevii participanţi la olimpiade nu se
deosebesc sub aspectul inteligenţei de populaţia elevilor în general.

6.4.3. Distribuţia ipotezei de nul

Expresia mpo=meg descrie situaţia în care media olimpicilor nu diferă de media populaţiei
generale de elevi, care poate fi definită, din acest motiv, drept „populaţia diferenţei
nule” sau, mai scurt, „populaţia de nul”. Corespunzător, distribuţia mediilor eşantioanelor
aleatore extrase din populaţia de nul se numeşte „distribuţia populaţiei de nul” sau
„distribuţia de nul”.

Aşa cum am spus anterior, extragerea unui număr mare de eşantioane (eventual infinit
de mare), produce ceea ce se numeşte distribuţia de eşantionare, care respectă legea
curbei normale. Din perspectiva cercetării statistice, aceasta este chiar distribuţia de nul,
deoarece ilustrează forma în care se distribuie mediile tuturor eşantioanelor posibile,
dacă acestea ar fi constituite pe o bază pur întâmplătoare, cu alte cuvinte, exact situaţia
în care ipoteza de nul ar fi adevărată.

Dacă avem în vedere eşantioane extrase la întâmplare din populaţia de nul, atunci, în
conformitate cu teorema limitei centrale, mediile acestora se distribuie pe o curbă
normală. Ca urmare, putem utiliza tabela distribuţiei normale standard pentru a răspunde
întrebărilor cu privire la media eşantionului de cercetare, în acelaşi mod în care am făcut-
o pentru notele z individuale.

Dacă vrem să ştim care este probabilitatea de a obţine un rezultat mai bun prin jocul
şansei, nu trebuie decât să vedem unde se plasează rezultatul cercetării pe distribuţia de
nul. Apoi calculăm aria de dincolo de acest punct, deoarece aceasta ne arată proporţia
(probabilitatea) cazurilor în care eşantioane de aceeaşi mărime, selectate la întâmplare

144
din populaţia de nul, ar putea avea un QI mediu mai mare decât eşantionul de
participanţi la olimpiadă.

6.5. Testul z pentru un singur eşantion


În urma aplicării testului de inteligenţă pentru eşantionul de participanţi la olimpiadă
(N=30) am obţinut următoarele valori statistice: m=106 şi s=7. Ne amintim că media
inteligenţei populaţiei, exprimată în unităţi QI, este µ=100, iar abaterea standard σ=15.
Cu aceste date putem calcula nota z corespunzătoare eşantionului cercetării, cu formula:

Formula 6.4

unde m este media eşantionului, µ este media populaţiei, iar s m este eroarea standard a

mediei.

În exemplul de mai sus, fiind vorba de o valoare QI, a cărei abatere standard la nivelul
populaţiei ne este cunoscută (am optat pentru σ=15) şi am utilizat-o ca atare. Dacă ar fi
fost vorba de o variabilă pentru care nu cunoşteam abaterea standard la nivelul
populaţiei, am fi putut utiliza aceeaşi valoare calculată pe eşantionul de studiu (s=7).

Dacă citim frecvenţa corespunzătoare valorii z calculate (2.18) în tabelul distribuţiei


normale, constatăm că între media populaţiei de nul (z=0) şi nivelul inteligenţei
eşantionului de elevi olimpici se află 48.54% dintre valorile posibile. De aici rezultă că
există 50-48.54 adică 1.46% şanse (sau o probabilitate p=0.0146) ca hazardul să
producă un eşantion cu un QI egal sau mai mare decât eşantionul cercetării noastre.
Imaginea de mai jos ilustrează grafic poziţia mediei eşantionului de cercetare pe
distribuţia de nul.

145
Ne putem imagina o situaţie în care scorul mediu QI al eşantionului de participanţi la
olimpiadă este atât de mare încât să nu existe nici o şansă de a se obţine un rezultat
mai bun ca urmare a unei selecţii întâmplătoare din populaţia de nul? Teoretic, acest
lucru nu este posibil. Oricât de mare ar fi media unui eşantion de olimpici, hazardul
poate produce un eşantion cu medie mai mare din populaţia de nul, deoarece curba
normală este asimptotică. Există însă un „prag” dincolo de care probabilitatea unui
eşantion aleatoriu din populaţia generală de elevi cu un QI mai mare decât cel al
eşantionului de olimpici este atât de mică, încât să ne putem permite să o considerăm
neglijabilă. Într-un asemenea caz, putem concluziona că valoarea calculată pe
eşantionul cercetării nu decurge din variaţia întâmplătoare a mediei de eşantionare, ci
provine din acţiunea unui factor sistematic care a condus la îndepărtarea semnificativă a
mediei eşantionului de studiu de media populaţiei (în cazul nostru, accesul celor mai
inteligenţi elevi la olimpiadele şcolare). Despre „pragul” evocat mai sus, vom vorbi în
continuare.

6.6. Decizia statistică


Următorul pas pe care trebuie să îl facă cercetătorul este acela de a decide dacă
valoarea medie a eşantionului de olimpici decurge din faptul că aceştia sunt într-adevăr
mai inteligenţi decât elevii în general, sau reprezintă rezultatul unui joc al şansei, care a
condus la selecţia unui eşantion ce nu se diferenţiază în mod real de populaţia de nul.

Este evident faptul că, dacă media eşantionului de olimpici ar fi fost egală cu 100,
cercetătorul ar fi decis că valoarea nu confirmă ipoteza cercetării. În exemplul dat însă,
media eşantionului cercetării fiind mai mare, ne punem problema, cât de mare trebuie

146
să fie diferenţa faţă de media populaţiei pentru a accepta că este o diferenţă „reală”
(determinată de un factor de influenţă, accesul la olimpiadă pe baza inteligenţei). Altfel
spus, trebuie să decidem dacă acceptăm sau respingem ipoteza de nul.

Din păcate, nu există un criteriu obiectiv de decizie într-o situaţie de acest gen.
Acceptarea sau respingerea ipotezei de nul depinde de gradul de risc pe care suntem
dispuşi să ni-l asumăm în acest sens. Este evident că cineva interesat în acceptarea ideii
că olimpicii sunt mai inteligenţi ar fi dispus să considere că valoarea obţinută este
suficient de îndepărtată de medie pentru a respinge ipoteza de nul. La fel cum, cineva
neîncrezător în această ipoteză (considerând că efortul de studiu, motivaţia, fac diferenţa
dintre participanţii şi neparticipanţii la olimpiadele şcolare), ar putea fi dispus să impună
un prag de respingere mult mai sever. Iată de ce, în practica cercetării ştiinţifice s-a
impus convenţia unui prag maxim de risc acceptat pentru decizia statistică. Acest prag
„critic” se numeşte nivel alfa (α) şi corespunde probabilităţii de 0.05. Pe curba normală
z, fiecărei probabilităţi îi corespunde o anumită valoare z, ca urmare şi probabilităţii
„critice” alfa îi corespunde o valoare critică z. Dat fiind faptul că a început prin a fi citită
dintr-un tabel, mai este desemnată şi ca „valoare tabelară”.

Avem acum toate elementele pentru luarea deciziei statistice în cazul cercetării noastre,
pe baza unui raţionament convenţional, identic pentru întreaga comunitate ştiinţifică.
Esenţa acestuia constă în comparaţia rezultatelor derivate dintr-un context de cercetare
cu cele specifice unui context ipotetic, aleatoriu (bazat pe şansa pură), după cum
urmează:

a. Dacă rezultatul calculat pentru eşantion este cel puţin egal sau mai mare decât
scorul critic, atunci avem un rezultat semnificativ al cercetării. Aceasta, deoarece
se acceptă că şansele ca acest rezultat să fi decurs din întâmplare sunt suficient de
mici pentru a fi ignorate. În consecinţă, într-un astfel de caz, ipoteza de nul (H 0) se
respinge, iar ipoteza cercetării (H1) se consideră confirmată la un prag alfa=0.05
(dacă acesta a fost nivelul ales).
b. Dacă rezultatul eşantionului este mai mic decât scorul z critic, atunci avem un
rezultat nesemnificativ al cercetării, prin faptul că există prea multe şanse ca acesta

147
să poată fi obţinut în condiţii pur aleatoare. În această variantă, ipoteza de nul se
acceptă, iar ipoteza cercetării se consideră infirmată la un prag alfa=0.05.
c. Cele două reguli decizionale de la punctele a şi b sunt exprimate pe baza
comparaţiei dintre valoarea calculată a testului şi valoarea critică tabelară, aferentă
nivelului alfa. Ele însă pot fi exprimate şi direct, prin comparaţia probabilităţii valorii
calculate cu alfa. Singura diferenţă este dată de faptul că raportul dintre
probabilitatea asociată scorului calculat şi alfa este invers decât în cazul valorilor.
Astfel, ipoteza de nul se admite dacă probabilitatea (p) a valorii calculate este mai
mare decât alfa, şi se respinge dacă este egală sau mai mare decât acesta.
Această precizare, îşi dovedeşte utilitatea în momentul în care se utilizează
programe statistice, care fac inutilă consultarea tabelelor distribuţiei de nul,
deoarece dau direct probabilitatea asociată valorii calculate a testului.
Imaginea de mai jos ilustrează poziţia valorii calculate a testului z în raport cu valoarea
critică pentru alfa=0.05.

Dat fiind faptul că z calculat (+2.18) este mai mare decât z critic pentru valoarea lui
alfa=0.05 (+1.65), decidem respingerea ipotezei de nul 5. Ca urmare, în legătură cu
studiul nostru demonstrativ, trebuie să decidem respingerea ipotezei de nul
(„participanţii la olimpiade nu sunt mai inteligenţi decât elevii în general”) ceea ce
înseamnă, implicit, confirmarea ipotezei de cercetare. („participanţii la olimpiade sunt
mai inteligenţi decât elevii în general”).

148
Raţionamentul deciziei statistice exemplificat astfel, se va regăsi în toate situaţiile de
testare a ipotezelor statistice cu care ne vom confrunta mai departe, indiferent de
modelul de cercetare şi de natura relaţiei pe care vrem să o demonstrăm între variabile.

6.6.1. Decizii statistice unilaterale şi bilaterale

În exemplul nostru, ipoteza cercetării a fost aceea că elevii participanţi la olimpiade au o


inteligenţă mai mare decât media populaţiei de nul. Din acest motiv, ne-a interesat să
vedem în ce măsură rezultatul nostru confirmă ipoteza pe direcţia valorilor din dreapta
curbei normale (valori mari, cu z pozitiv). Ca urmare, am efectuat ceea ce se numeşte
un test unilateral (one-tailed). În acest caz, ipoteza că participanţii la olimpiadele şcolare
ar putea avea o inteligenţă sub medie, nu este viabilă, dar dacă am fi obţinut un z
negativ pentru eşantionul cercetării, ar fi trebuit să îl testăm în partea din stânga curbei
de distribuţie, În aceste două situaţii am fi avut acelaşi z critic (1.65) cu semnul + sau –
în funcţie de zona scalei pentru care făceam testarea. Imaginea de mai jos ilustrează
grafic cele două direcţii de testare a ipotezelor statistice unilaterale şi ariile valorilor
semnificative/nesemnificative, în funcţie de valoarea critică a lui z.

149
Figura 6.4. Decizia statistică unilaterală
Ce s-ar fi întâmplat însă dacă eşantionul cercetării ar fi obţinut un scor QI=94, ceea ce ar
fi corespuns unui scor z=-2.18? În acest caz, aplicând un test unilateral orientat spre
valori superioare mediei, conform ipotezei, ar fi trebuit să acceptăm ipoteza de nul,
concluzionând că olimpicii nu sunt mai inteligenţi decât media, fără a putea emite o
concluzie privitoare la faptul că ei sunt, de fapt, mai puţin inteligenţi, aşa cum ar fi cerut-o
datele cercetării.

Pentru a elimina acest neajuns putem verifica ipoteza pe ambele laturi ale distribuţiei,
aplicând ceea ce se numeşte un test bilateral (two-tailed). În acest caz se păstrează
acelaşi nivel alfa (0.05), dar el se distribuie în mod egal pe ambele extreme ale curbei,
astfel încât pentru 2.5% de fiecare parte, avem un z critic de 1.96 (cu semnul - sau +).
Această valoare este luată din tabelul ariei de sub curbă, în dreptul probabilităţii 0.4750
care corespunde unei probabilităţi complementare de 0.025 (echivalent cu 2.5%) 5.
Puteam ajunge la aceeaşi concluzie pe baza faptului că probabilitatea valorii calculate
(0.014) este mai mică decât alfa (0.05), dar acest raţionament nu este posibil decât
atunci când utilizăm programe specializate de calcul, care ne oferă direct valoarea lui p
calculat.

Figura 6.5. Decizia statistică bilaterală(p = 0,05)


Figura de mai sus indică scorurile critice pentru un test z bilateral. Se observă că în cazul
alegerii unui test bilateral (z=±1.96) nivelul α de 5% se împarte în mod egal între cele
două laturi ale curbei. Este de la sine înţeles faptul că semnificaţia statistică este mai
greu de atins în cazul unui test bilateral decât în cazul unui test unilateral, deoarece

150
valoarea testului trebuie să fie mai mare de 1.65, cât este în cazul pentru un test
unilateral.

Alegerea tipului de test, unilateral sau bilateral, este la latitudinea cercetătorului. De


regulă însă, se preferă testul bilateral, chiar şi în situaţii de cercetare cum este aceea din
exemplul nostru, când o diferenţă negativă faţă de media populaţiei este improbabilă.
Motivul îl constituie necesitatea de a introduce mai multă rigoare şi de a lăsa mai puţin
loc hazardului. Se alege testul unilateral doar atunci când suntem interesaţi de evaluarea
semnificaţiei strict într-o anumită direcţie a curbei, sau atunci când miza rezultatului este
prea mare încât să fie justificată asumarea unui risc sporit de eroare. În mod uzual,
ipotezele statistice sunt testate

O scurtă discuţie pe tema nivelului alfa maxim acceptabil (0.05) se impune, având în
vedere faptul că întregul eşafodaj al deciziei statistice se sprijină pe acest prag. Vom
sublinia, din nou, că p=0.05 este un prag de semnificaţie convenţional, impus prin
consensul cercetătorilor din toate domeniile, nu doar în psihologie. Faptul că scorul critic
pentru atingerea pragului de semnificaţie este ±1.96 a jucat, de asemenea, un rol în
impunerea acestei convenţii. Practic, putem considera că orice îndepărtare mai mare de
două abateri standard de la media populaţiei de referinţă este semnificativă. Chiar dacă
persistă posibilităţi de a ne înşela, ele sunt suficient de mici pentru a le trece cu
vederea.

Impunerea unui prag minim de semnificaţie a testelor statistice are însă, mai ales, rolul de
a garanta faptul că orice concluzie bazată pe date statistice răspunde aceluiaşi criteriu
de exigenţă, nefiind influenţată de subiectivitatea cercetătorului. Nivelul alfa de 0.05 nu
este decât pragul maxim acceptat. Nimic nu împiedică un cercetător să îşi impună un
nivel mai exigent pentru testarea ipotezei de nul, ceea e înseamnă un prag alfa mai
scăzut. În practică mai este utilizat pragul de 0.01 şi, mai rar, cel de 0.001. Toate aceste
praguri pot fi exprimate şi în procente, prin opusul lor, care exprimă nivelul de încredere
în rezultatul cercetării. Astfel, printr-o probabilitate de 0.05 se poate înţelege şi un nivel
de încredere de 95% în rezultatul cercetării (99%, pentru p=0.01 şi, respectiv, 99.9%
pentru p=0.001).

151
În fine, este bine să subliniem faptul că utilizarea acestor „praguri” vine din perioada în
care nu existau calculatoare şi programe automate de prelucrare statistică. Din acest
motiv, cercetătorii calculau valoarea testului statistic pe care apoi o comparau cu valori
tabelare ale probabilităţii de sub curba de referinţă. Pentru a face mai practice aceste
tabele, ele nu cuprindeau toate valorile de sub curbă, ci doar o parte dintre acestea,
printre ele, desigur, cele care marcau anumite „praguri”. Rezultatul cercetării era
raportat, de aceea, prin invocarea faptului de a fi „sub” pragul de semnificaţie sau
„deasupra” sa. Odată cu diseminarea pe scară largă a tehnicii de calcul şi cu apariţia
programelor de prelucrări statistice, semnificaţia valorilor testelor statistice nu mai este
căutată în tabele, ci este calculată direct şi exact de către program, putând fi afişată ca

atare. De aici, aşa cum am mai spus, rezultă şi posibilitatea de a lua decizia statistică
prin compararea directă a valorii calculate a lui p cu pragul alfa critic asumat.

6.7. Estimarea intervalului de încredere pentru media populaţiei


Eşantionul cercetării noastre a obţinut medie QI=106, care s-a dovedit semnificativă.
Acest lucru înseamnă că valorile inteligenţei elevilor olimpici fac parte dintr-o populaţie
specială de valori QI, care are o medie mai mare decât media populaţiei generale de
elevi. Dar cât de mare este această medie? Media eşantionului cercetării ne oferă o
estimare a acesteia dar, ca orice estimare, conţine o anumită imprecizie, exprimată prin
eroarea standard a mediei. Nu vom putea şti niciodată cu precizie care este media
inteligenţei populaţiei de elevi olimpici, dar teorema limitei centrale ne permite să
calculăm, cu o anumită probabilitate, în ce interval se află ea, pe baza mediei
eşantionului cercetării şi a erorii standard a acesteia.

Acest lucru se bazează pe proprietatea curbei normale de a avea un număr bine definit
de valori pe un interval simetric în jurul mediei. Astfel, dacă luăm pe curba normală un
interval cuprins între z=±1.96 de o parte şi de alta a mediei, ştim că acoperim
aproximativ 95% din valorile posibile ale distribuţiei. În acest caz, z=±1.96 se numeşte
z critic deoarece reprezintă un prag limită, pe cele două laturi ale distribuţiei (care,
pentru curba normală standardizată, este 0). Alegerea acestor limite pentru z critic este

152
convenţională. Se pot alege, la fel de bine, valori simetrice ale lui z care să cuprindă
între ele 99% sau 99.9% dintre valorile de pe curba normală. Prin consens, însă, se
consideră că asumarea unui nivel de încredere de 95% (corespunzător pentru valori
„critice” ale lui z=±1.96) este considerat suficient pentru păstrarea unui echilibru între
precizia estimării şi probabilitatea estimării. Ca urmare, în această condiţie, putem spune
că există 95% şanse ca, având media unui eşantion aleatoriu, media populaţiei să se
afle undeva în intervalul: μ = m ± zcritic*sm (formula 6.5)

unde µ=media populaţiei, pe care o căutăm


m=media eşantionului de cercetare
zcritic=valoarea corespunzătoare pentru alfa ales (de regulă 0.05), iar
sm=eroarea standard a mediei.
În ce priveşte eroarea standard a mediei, aceasta este dată de raportul dintre abaterea
standard a populaţiei, pe care în acest caz o cunoaştem (15) şi radical din volumul
eşantionului:

Mai departe, utilizând formula 3.3 pentru datele eşantionului cercetării, limitele de
încredere pentru media populaţiei mediei pot fi calculate astfel:

-pentru limita inferioară µ = 106-1.96*2.74 = 100.62

-pentru limita superioară µ = 106 +1.96 * 2.74 = 111.37

Ca urmare, putem afirma, cu o probabilitate de 95%, că media reală a populaţiei de elevi


olimpici, estimată prin media eşantionului cercetării, se află undeva între 100.6 şi 111.3.
Acest interval a cărui limită inferioară este foarte aproape de media populaţiei generale
de valori QI (100), ne arată că, deşi semnificativă, diferenţa eşantionului nostru nu are o
valoare foarte ridicată. Trebuie să observăm, de asemenea, că mărimea intervalului de
încredere rezultă din imprecizia mediei, exprimat prin eroarea standard a mediei. Acesta,
la rândul ei, este cu atât mai mare cu cât volumul eşantionului este mai mic. Desigur, cu

153
cât limitele intervalului de estimare sunt mai apropiate de media eşantionului, cu atât
aceasta din urmă estimează mai precis media populaţiei şi prezintă mai multă încredere.

6.8. Testul t (Student) pentru un singur eşantion


Aşa cum am precizat mai sus, testul z poate fi utilizat doar atunci când cunoaştem
media populaţiei de referinţă şi avem la dispoziţie un eşantion „mare” (adică de cel puţin
30 de subiecţi, în cazul unei variabile despre care avem motive să credem că se distribuie
normal). Dar nu întotdeauna putem avea la dispoziţie eşantioane „mari” (minim 30 de
subiecţi). Pentru situaţiile care nu corespund acestei condiţii, testul z nu poate fi aplicat.
Şi aceasta, pentru că distribuţia mediei de eşantionare urmează legea curbei normale
standardizate doar pentru eşantioane de minim 30 de subiecţi, conform teoremei limitei
centrale.

La începutul secolului XX, William Gosset, angajat al unei companii producătoare de


bere din SUA, trebuia să testeze calitatea unor eşantioane de bere pentru a trage
concluzii asupra întregii şarje. Din considerente practice, el nu putea utiliza decât
eşantioane (cantităţi) mici de bere. Pentru a rezolva problema, a dezvoltat un model
teoretic propriu, bazat pe un tip special de distribuţie, denumită distribuţie t, cunoscută
însă şi ca distribuţia „Student”, după pseudonimul cu care a semnat articolul în care şi-a
expus modelul.

În esenţă, distribuţia t este o distribuţie teoretică care are toate caracteristicile unei
distribuţii normale (este perfect simetrică şi are formă de clopot). Specificul acestei
distribuţii constă în faptul că forma ei (mai exact, înălţimea) depinde de un parametru
denumit „grade de libertate” (df sau degrees of freedom), care este egal cu N-1 (unde N
este volumul eşantionului). Acest parametru poate fi orice număr mai mare decât 0, iar
mărimea lui este aceea care defineşte forma exactă a curbei şi, implicit, proporţia
valorilor de sub curbă între diferite puncte ale acesteia. Imaginea de mai jos ilustrează
modul de variaţie a înălţimii distribuţiei t, în funcţie de gradele de libertate.

154
Figura 6.5. Valorile critice ale distribuţiei t pentru p = 0,05, în funcţie de gradele de libertate

Aşa cum se observă, curba devine din ce în ce mai aplatizată pe măsură ce df (volumul
eşantionului) este mai mic. Acest fapt are drept consecinţă existenţa unui număr mai
mare de valori spre extremele distribuţiei. Nu este însă greu de observat că, pe măsură
ce df este mai mare, distribuţia t se apropie de o distribuţie normală standard astfel încât,
pentru valori ale lui N de peste 31 (df=30), aria de sub curba distribuţiei t se apropie
foarte mult de valorile de sub aria curbei normale standard (z), iar scorul critic pentru t
este acelaşi ca şi cel pentru z pe curba normală (1.96).

Din cele spuse rezultă că, dacă avem un eşantion de volum mic (N<30), vom utiliza
testul t în loc de testul z, pe baza unei formule asemănătoare:

(formula 6.6)

unde:

m este media eşantionului


µ este media populaţiei
sm este eroarea standard a mediei
Interpretarea valorii lui t se face în mod similar cu cea pentru valoarea lui z, cu
deosebirea că se utilizează tabelul distributiei t (Anexa 2). În acest caz, valorile critice ale
lui t vor fi diferite în funcţie de numărul de grade de libertate. Citind tabelul, se observă
că pragurile critice ale lui t (subînţelegând alfa=0.05, pentru test bilateral) se plasează
la valori diferite în funcţie de nivelul df. În acelaşi timp, dacă df este mare (peste 30),

155
valorile tabelare ale lui t se apropie de cele ale lui z. La infinit, ele sunt identice (±1.96,
la fel ca şi în cazul valorilor lui z).

Date fiind caracteristicile enunţate, în practică, testul t se poate utiliza şi pentru


eşantioane mari (N≥30). În nici un caz însă, nu poate fi utilizat testul z pentru
eşantioane mici (N<30). Utilizarea testului bazat pe un singur eşantion (fie z sau t)
depinde într-o măsură decisivă de asigurarea caracteristicii aleatoare a eşantionului.

6.9. Publicarea rezultatelor testului z sau t


Publicarea rezultatelor diferitelor proceduri statistice trebuie făcută astfel încât cititorii să
îşi poată face o imagine corectă şi completă asupra rezultatelor. În acest scop la
publicarea rezultatelor trebuie respectate anumite reguli, la care vom face trimitere în
continuare, în legătură cu fiecare nou test statistic ce va fi introdus.

În principiu, publicarea rezultatelor unui test statistic se poate face în două moduri:

sintetic (de regulă sub formă tabelară), atunci când numărul variabilelor testate este
relativ mare;
narativ, atunci când se referă, să zicem, la o singură variabilă.
În cazul testului pentru un singur eşantion se vor raporta: media eşantionului, media
populaţiei, valoarea lui z (sau t), nivelul lui p, tipul de test (unilateral/bilateral).

Dacă avem în vedere rezultatele obţinute pe exemplul de mai sus, se apelează la o


raportare de tip narativ, care poate utiliza o formulare în maniera următoare: Eşantionul
de elevi participanţi la olimpiade a obţinut un scor (QI=106; 95%CI: 100.6-111.3) peste
media populaţiei generale (QI=100). Testul z, cu alfa 0.05, a demonstrat că diferenţa
nu este semnificativă statistic, z=+2.13, p>0.05, unilateral”.

În acest exemplu de prezentare nu formularea ca atare este esenţială, ci informaţiile


asociate publicării testului z. Formularea poate diferi de cea enunţată, dar elementele
informaţionale trebuie să fie complete. Expresia „95%CI” vine de la 95% Confidence
Interval şi exprimă intervalul de încredere pentru media populaţiei.

156
Aşa cum am spus mai sus, utilizarea programelor statistice oferă pentru orice valoare a
lui z (sau oricare alt test statistic) valoarea exactă a lui p. Ea poate fi utilizată ca atare,
păstrând însă raportarea acesteia la pragul de semnificaţie. Orice valoare a lui p mai
mare de 0.05 este considerată nesemnificativă6, dacă nu a fost fixat un alt prag, mai
sever.
6
Programele de prelucrări statistice utilizează termenul „Sig.” (de la „significance” în loc
de „p”. Ele sunt strict echivalente.

6.10. Un exemplu de studiu bazat pe testul z(t)


Aşa cum am precizat deja, testul z sau testul t pentru un singur eşantion (comparat cu
populaţia de referinţă) sunt teste statistice destul de rar utilizate în practică, deoarece
rareori cunoaştem parametrii populaţiei (medie, abatere standard). Vom prelua aici un
studiu efectuat de Sara Tonin, (B.H. Cohen, op.cit., p. 205) cu privire la relaţia dintre
depresia de lungă durată (cronică) şi înălţime. Ipoteza cercetării, bazată pe experienţă şi
observaţie îndelungată, a fost aceea că femeile care suferă de depresie cronică sunt mai
scunde decât cele care nu prezintă această suferinţă psihică. În acest caz, ipoteza
statistică („de nul” sau „a diferenţei nule”) este că nu există nici o diferenţă de înălţime
între femeile care suferă şi cele care nu suferă de depresie cronică.

În primul rând, este necesară luarea în considerare a mediei populaţiei feminine.


Aceasta a fost luată din studii de antropometrie, fiind: µ=165 cm. În faza următoare
cercetătoarea a ales valoarea lui α=0,05. A decis să utilizeze un test de tip bilateral
(aceasta pentru a acoperi şi eventualitatea că femeile depresive sunt chiar mai înalte
decât cele care nu suferă de depresie). În acest caz, pentru a afla valorile critice ale lui
z, a împărţit α la 2 (0.05/2=0.025 ceea ce, transformat în procente de sub curbă,
înseamnă 2.5%). A scăzut 50-2.5=47.5% pentru a găsi procentul corespunzător lui z
critic, pe care l-a citit din tabel, aşa cum se vede în imaginea de mai jos: zcritic=1.96.
Fiind vorba de un test bilateral, există de fapt două valori pentru z critic, una cu plus şi
una cu minus, pentru fiecare dintre cele două extreme ale curbei (zcritic=±1.96).

157
În continuare, cercetătoarea a selectat un eşantion aleator de femei cu depresie cronică
(N=30), pentru care a calculat înălţimea medie: m=160 cm şi abaterea standard s=7.62.

În final, a calculat valoarea lui z:

Pentru că abaterea standard a populaţiei nu a fost cunoscută, a utilizat abaterea


standard a eşantionului pentru aproximarea acesteia. Valoarea calculată a lui z este
-3.59, adică este mai mare (în valoare absolută) decât ±1.96, cât era valoarea critică
pentru z.

În concluzie, se poate respinge ipoteza de nul şi, ca urmare, ipoteza cercetării este
acceptată. Femeile depresive cronic sunt, statistic vorbind, mai scunde decât cele fără
probleme depresive. Acest rezultat nu permite tragerea unei concluzii ferme cu privire la
relaţia directă între înălţime şi nivelul depresiei. Nu este exclus ca înălţimea să joace un
anumit rol în echilibrul vieţii de relaţie, dar la fel de posibil ar fi ca înălţimea să fie
determinată de anumiţi factori fiziologici care, abia ei, să aibă o legătură directă cu
depresia.

6.11. Rezumat

1.Distribuţia de eşantionare este formată din totalitatea mediilor eşantioanelor de acelaşi volum posibile, extrase aleatoriu
dintr-o populaţie.

2. Media de eşantionare este egală cu media populaţiei, dacă au fost extrase toate eşantioanele posibile.
3.Eroarea standard a mediei este indicatorul de împrăştiere al mediei de eşantionare.
4.Eroarea standard a mediei este întotdeauna mai mică decât abaterea standard a populaţiei.
5.Teorema limitei centrale stipulează că distribuţia de eşantionare tinde spre forma normală, atunci când eşantioanele
extrase sunt suficient de mari (N este cel puţin 30).
6.Scorul z pentru eşantion (grup) se calculează în acelaşi mod ca şi pentru valori individuale, cu deosebirea că in locul
abaterii standard se utilizează la numitor eroarea standard a mediei.

158
7.Limitele de încredere ale mediei unui eşantion estimează, cu o anumită probabilitate, localizarea mediei la nivelul
populaţiei, în funcţie de media eşantionului.
8.Ipoteza cercetării descrie rezultatul aşteptat de cercetător la problema studiată.
9.Ipoteza de nul reprezintă negaţia ipotezei cercetării şi face obiectul testării printr-o procedură statistică specifică.
10.Decizia statistică este un raţionament în baza căruia se admite sau se respinge ipoteza de nul.
11.Pragul a este probabilitatea maximă ca rezultatul procedurii de testare statistică să poată fi întâmplător şi este fixat de
cercetător drept criteriu de respingere sau de acceptare a ipotezei de nul.
12.Pragul a = 0,05 este nivelul maxim de probabilitate convenţional acceptat de comunitatea ştiinţifică pentru respingerea
ipotezei de nul.
13.Decizia unilaterală testează ipoteza statistică numai spre o latură a distribuţiei. Decizia bilaterală testează ipoteza în
ambele direcţii, cu menţinerea pragului a stabilit.
14.Media eşantionului reprezintă o estimare a mediei populaţiei. Precizia acestei estimări este cu atât mai mare cu cât
eşantionul este mai reprezentativ.
15.Intervalul de încredere pentru media populaţiei este domeniul în care se află, cu o probabilitate asumată (minimum
0,95 sau 95%), media reală a populaţiei, estimată prin media eşantionului. Altfel spus, intervalul de încredere reprezintă
precizia estimării mediei populaţiei. Cu cât intervalul este mai restrâns, cu atât estimarea este mai precisă. Cu cât intervalul
este mai larg, cu atât estimarea este mai imprecisă.
16.Intervalul de încredere se măreşte odată cu creşterea erorii standard, iar aceasta, la rândul ei, este cu atât mai mare cu
cât volumul eşantionului este mai mic. Ca urmare, limitele de încredere sunt cu atât mai largi cu cât volumul eşantionului
este mai mic.
17.Intervalul de încredere poate fi calculat şi pentru alţi parametri ai distribuţiei (indice de simetrie, indice de aplatizare), iar
semnificaţia lui este identică cu cea prezentată mai sus.

6.12. Exerciţii
1.Să presupunem că media populaţiei pentru o scală de anxietate este µ=40. După un
cutremur puternic se obţin următoarele scoruri pe un eşantion de subiecţi care se
adresează unui cabinet de psihologie clinică: 62, 49, 44, 46, 48, 52, 57, 51, 44, 47.
1.1.Testaţi ipoteza conform căreia nivelul anxietăţii este influenţat de cutremur.
(α=0,05, bilateral).
1.2.Calculaţi intervalul de încredere pentru media populaţiei (95%).

159
2.Scorurile obţinute la o scală de satisfacţie profesională de către angajaţii unui
compartiment dintr-o companie privată sunt următoarele: 10, 12, 15, 11, 10, 22, 14,
19, 18, 17, 25, 9, 12, 16, 17
Scala a fost aplicată întregului personal al companiei (µ=13 şi σ=4)
2.1.Este nivelul de satisfacţie al compartimentului respectiv semnificativ mai mic decât
satisfacţia la nivelul întregii companii? (pentru alfa=0.01)
2.2.Considerând că nu am cunoaşte media satisfacţiei pe întreaga companie, care sunt
limitele de încredere pentru aceasta, la un nivel de încredere de 99%?
(Verificaţi răspunsurile corecte la secţiunea 14. Rezolvări şi explicaţii la
exerciţiile din volum, Capitolul 6, exerciţiile 6.12)

6.13. Erori statistice, puterea testului şi mărimea efectului


Procedura urmată pentru a răspunde la întrebarea cercetării cu privire la nivelul
inteligenţei elevilor participanţi la olimpiade este definită ca „testarea ipotezei statistice”.
Privind retrospectiv, am efectuat un proces derulat în şase etape succesive: (1)
enunţarea ipotezei cercetării (H1); (2) enunţarea ipotezei de nul (H0); (3) alegerea
pragului de semnificaţie (alfa); (4) colectarea şi analiza descriptivă a datelor; (5)
raportarea la un criteriu pentru evaluarea rezultatului pe eşantion (valoarea
corespunzătoare pragului alfa), (6) adoptarea deciziei statistice de reţinere sau
respingere pentru H0.

Aplicând această procedură am putut concluziona că probabilitatea de a avea o medie


QI=106, pentru un eşantion de elevi participanţi la olimpiade, este mai mică decât
pragul alfa critic=0.05. Ca urmare, am respins ipoteza de nul şi am considerat
confirmată ipoteza cercetării, conform căreia elevii olimpici au un nivel de inteligenţă
peste media populaţiei de elevi. Este însă acest rezultat expresia unui adevăr cert?
Putem afirma fără nici o îndoială că orice eşantion de elevi olimpici am selecta, nivelul
lor de inteligenţă este peste media populaţiei? Din păcate, nu. Rezultatul obţinut şi
concluzia asumată reprezintă o decizie de tip probabilistic. Mai precis, am estimat
probabilitatea ca ipoteza de cercetării să fie falsă.

160
Pentru a înţelege mai uşor acest raţionament putem apela la o analogie. Să presupunem
că avem un munte în care bănuim să se află aur (populaţia), şi ca dorim să dovedim
prezenţa lui pe baza unei cantităţi de pământ extrase dintr-un loc ales la întâmplare
(eşantion) din acest munte. Ipoteza de nul în acest caz afirmă că aurul nu este prezent
în acest munte mai mult decât în orice alt loc. Mai departe, determinăm cantitatea de
aur din eşantionul recoltat şi descoperim o anumită concentraţie de metal preţios. În
final, trebuie să hotărâm dacă această concentraţie diferă de concentraţia „naturală”, pe
care ne putem aştepta să o găsim oriunde. Dacă nivelul concentraţiei de aur din eşantion
este mai mare decât cel al concentraţiei pe care ne aşteptăm să găsim în cel mult 5%
(pragul alfa) din eşantioanele recoltate „din orice loc de pe pământ, ales la întâmplare”,
atunci suntem îndreptăţiţi să concluzionăm că aurul din eşantionul cercetării nu este
„întâmplător” (respingem H0) şi, implicit, că „foarte probabil” muntele nostru conţine aur
într-o concentraţie mai mare decât cea naturală (acceptăm H1).

Am spus mai sus „foarte probabil”, fiindcă este evident faptul că nu putem fi absolut
siguri de rezultatul nostru. În conformitate cu legea distribuţiei normale, dacă am recolta
la întâmplare eşantioane de pământ, ne putem aştepta să avem situaţii în care
concentraţia de aur să fie oricât de mare, fără ca acest lucru sa însemne neapărat că
„muntele” (populaţia cercetării) este un zăcământ aurifer (poate exista doar o zonă
limitată, cu concentraţie mare, iar restul muntelui să nu conţină aur). Aceasta înseamnă
că asumarea deciziei cu privire la ipoteza de nul presupune implicit asumarea riscului
unei anumite erori. Chiar dacă respectăm rigorile raţionamentului şi deciziei statistice,
nu avem garanţia că decizia noastră reflectă „realitatea vieţii”. Cercetările statistice au
un caracter probabilist şi, ca atare, conţin o anumită cantitate de eroare.

6.13.1 Erori statistice

În raport cu „realitatea vieţii”, decizia cu privire la ipoteza de nul poate fi corectă sau
greşită dar, din păcate, cercetătorul care a efectuat studiul privind inteligenţa elevilor
olimpici nu are cum să ştie cu certitudine dacă decizia pe care o ia este cu adevărat
corectă sau este greşită. O imagine sintetică, frecvent utilizată pentru a ilustra relaţiile

161
posibile între decizia statistică şi „adevărul vieţii”, este prezentată în mod clasic prin
următorul tablou: Tabelul 6.6. Relaţia dintre ”adevărul vieţii” şi decizia statistică

„Adevărul vieţii” (necunoscut)


H0 este adevărată H0 este falsă
(olimpicii NU SUNT mai (olimpicii SUNT mai
inteligenţi) inteligenţi)
Acceptarea 1. decizie corectă 4. eroare de tip II
H0 p=1-alfa p=beta
Decizia
(olimpicii
RespingereaNU 2.eroare de tip I 3. decizie corectă
statistică
H0 P=alfa p=1-beta (power)
(olimpicii
SUNT mai
inteligenţi)
Aşa cum observăm, decizia statistică este corectă în două din celulele tabelului de mai
sus: celula 1, acceptarea ipotezei de nul când ea este şi în realitate adevărată, şi celula
3, respingerea ipotezei de nul atunci când ea este şi în realitate falsă. În acest din urmă
caz ne plasăm într-o situaţie statistică „ideală”, în care decizia confirmă ipoteza
cercetării, atunci când aceasta este adevărată şi în viaţa reală. Capacitatea unui test
statistic de a susţine o astfel de decizie, se numeşte „puterea testului statistic” (sau
„puterea cercetării”), pe care o vom analiza pe larg puţin mai târziu. La rândul lor,
erorile sunt ilustrate în celelalte două celule: celula 2, când respingem, ipoteza de nul,
deşi ea este adevărată şi celula 4, când acceptăm ipoteza de nul, deşi ea este falsă.
Pentru început, vom detalia situaţiile de eroare.
În continuare, vom analiza în detaliu situaţiile de eroare statistică.

6.13.1.1. Eroarea de tip I


Cercetătorul ştie că, chiar şi în cazul în care testul diferenţei dintre media eşantionului şi
media populaţiei este mai mare decât valoarea critică corespunzătoare lui alfa, hazardul
ar putea produce o diferenţă chiar mai mare decât cea constatată, fără nici o legătură cu
prezenţa la olimpiadă. Rezultă de aici că, dacă pe baza rezultatului la testul statistic

162
respingem ipoteza de nul şi acceptăm că participarea la olimpiade se asociază cu un
nivel mai ridicat al inteligenţei, o facem asumându-ne conştient riscul unei erori. Dacă
diferenţa dintre cele două medii rezultă a fi semnificativă şi respingem ipoteza de nul,
deşi conform „adevărului vieţii” ea este adevărată, se comite o eroare de tip I.
Probabilitatea acesteia este egală cu valoarea pragului alfa, al cărui nivel maxim
acceptabil este fixat convenţional la 0.05. Atunci când fixăm valoarea lui alfa (0.05 sau
mai mică) drept criteriu de respingere a ipotezei de nul, definim, de fapt, cantitatea de
eroare pe care suntem dispuşi să ne-o asumăm în a respinge ipoteza de nul, chiar dacă în
realitate aceasta ar putea fi adevărată. Altfel spus, riscul de a decide că muntele conţine
un zăcământ aurifer, când de fapt acest lucru nu este adevărat. Din acest motiv, eroarea
de tip I se concretizează într-un rezultat fals pozitiv.
Decizia statistică se bazează pe măsura în care eşantionul reprezintă în mod rezonabil
caracteristicile populaţiei. Chiar dacă selecţia eşantionului s-a făcut în condiţii ideale,
există o anumită probabilitate (cu atât mai mare cu cât eşantionul este mai mic) ca
valorile sale să se abată de la parametrii populaţiei („adevărul vieţii”). Ca urmare, putem
să ne imaginăm o situaţie în care, chiar şi un eşantion selecţionat aleatoriu să prezinte
valori neobişnuit de îndepărtate de parametrii populaţiei, fără nici o legătură cu condiţia
cercetării. Într-o astfel de situaţie, supunându-ne în mod corect regulilor convenţionale
ale deciziei statistice, respingem ipoteza de
nul, făcând o eroare de tip I şi asumându-ne un rezultat fals pozitiv. Desigur, putem
reduce probabilitatea erorii de tip I prin asumarea unei valori mai mici pentru alfa dar,
aşa cum vom vedea mai departe, acest lucru nu este lipsit de consecinţe.

Dacă privim în cvadrantul 1 din tabelul de mai sus, vom observa că probabilitatea de a
decide corect, prin acceptarea ipotezei de nul atunci când ea este într-adevăr adevărată
este egală cu 1-alfa. Acest lucru înseamnă că prin asumarea unei valori alfa=0.05, de
exemplu, avem o probabilitate de 0.95 (1-0.5) de a accepta H0 când aceasta este în mod
real adevărată. Din acest motiv valoarea din cadranul 1 se numeşte nivel de încredere.
Ca să înţelegem şi mai bine, să ne imaginăm că am efectua exact acelaşi studiu de 100
de ori, utilizând eşantioane diferite, dar similare sub aspectul vârstei copiilor, volumului

163
grupurilor şi procedurii etc. În cazul unei decizii statistice care respectă criteriile impuse,
cu alfa=0.05 (implicit, 1-alfa=0.95), ne putem aştepta ca în 5% dintre aceste cercetări
(100x0.05) să respingem în mod greşit ipoteza de nul (aceasta fiind, în realitate,
adevărată). Acest lucru este echivalent cu a spune că avem un nivel de încredere de 95%
(100x0.95) să acceptăm corect ipoteza de nul, dar şi că avem 95% şanse să acceptăm o
ipoteză de nul care este în realitate adevărată. Cu alte cuvinte, valoarea lui alfa ne
spune care este probabilitatea de a respinge în mod nejustificat o ipoteză de nul,
adevărată în viaţa reală, eroare pe care însă cercetătorul este dispus să o tolereze.

6.13.1.2. Eroarea de tip II

Dar dacă, deşi muntele la care am făcut referire conţine în mod real un zăcământ de
aur, iar eşantionul nostru nu conţine dovada acestui fapt şi ne sileşte să admitem
ipoteza de nul? În acest caz comitem o eroare de tip II, care descrie un rezultat fals
negativ.

Să presupunem că participarea la olimpiadă este asociată în mod real cu un nivel de


inteligenţă mai ridicat dar, ca urmare a hazardului eşantionării, diferenţa dintre media
eşantionului cercetării şi media populaţiei nu atinge pragul semnificaţiei statistice.
Aceasta este situaţia în care, deşi elevii olimpici sunt mai inteligenţi, cercetarea noastră
are un rezultat nesemnificativ. Să nu uităm că cercetătorul nu cunoaşte care este
„adevărul vieţii” (dacă olimpicii sunt mai inteligenţi) şi, drept urmare, chiar şi atunci când
admite o ipoteză de nul îşi asumă un risc de eroare. Aceasta este o eroare de tip II,
codificată cu beta. Admiterea existenţei erorii de tip II nu este lipsită de controverse.
Fisher, unul dintre teoreticienii marcanţi ai statisticii moderne, considera că atunci când
nu decidem respingerea ipotezei de nul, nu decidem acceptarea ei, ci doar consemnăm
„eşecul de a o respinge”, ceea ce nu este propriu-zis o decizie. Abia mai târziu, Neyman şi
Egon Pearson (fiul lui Karl Pearson, autorul coeficientului de corelaţie care îi poartă
numele) au dezvoltat teoria modernă a deciziei statistice, în prezent larg acceptată de
comunitatea ştiinţifică (B. Cohen, 2001).

164
Stabilirea nivelului probabilităţii erorii de tip II nu este uşor de înţeles, mai ales că ea
este în legătură cu puterea testului, probabilitatea deciziei corecte, fixată în cadranul 3
al tabelului. Aceste două valori sunt complementare, puterea testului fiind egală cu 1-
beta. În general, o valoare acceptabilă pentru eroarea de tip II este beta=0.20,
deoarece, aşa cum vom vedea mai târziu, valoarea recomandabilă pentru puterea
testului este 0.80.

Atunci când iniţiază studiul privind relaţia dintre inteligenţă şi participarea la olimpiadele
şcolare, cercetătorul este interesat mai ales să evite admiterea ipotezei de nul atunci
când aceasta ar fi, în realitate, falsă. Altfel spus, cercetătorul este interesat cu precădere
în asumarea unei valori cât mai mici pentru eroarea de tip II (evitarea acceptării ipotezei
de nul când ea este falsă), deoarece ar însemna că nu poate confirma ipoteza a
cercetării. Micşorarea erorii de tip II ar însemna însă asumarea implicită a unei valori
mai mari pentru riscul erorii de tip I. Se poate stabili o ierarhie între cele două tipuri de
eroare? Este una mai „periculoasă decât alta? În mod obişnuit, „societatea” îşi impune
punctul de vedere, declarând eroarea de tip I ca fiind mai „periculoasă”, prin fixarea
limitei maxime pentru eroarea de tip I (alfa=0.05). Dar de ce ar fi admiterea greşită a
ipotezei de nul mai „rea” decât respingerea ei greşită? Aici trebuie să fim în consens cu
Hack (2004) care afirmă că, deşi există o tendinţă de considerare a erorii de tip I ca
fiind mai „rea” decât eroarea de tip II, în realitate ambele tipuri de erori pot fi la fel de
„rele”, prin consecinţele practice care decurg din rezultatele cercetării.

Nu avem nici un motiv să credem că vreunul dintre cele două tipuri de eroare este mai
„rău” sau mai „bun” decât celălalt. Dacă avem în vedere un criteriu moral, înainte de
toate ar trebui să nu ne asumăm un rezultat pozitiv al cercetării, fără ca acest lucru să fie
adevărat. Pe de altă parte, respingerea unui adevăr ştiinţific numai pentru că cercetarea
nu a fost în măsură să aducă dovada acestuia, este de asemenea de nedorit. Dacă am
concluziona că muntele conţine un zăcământ de aur, iar acest lucru s-ar dovedi fals,
eroare de tip I, ar rezulta pierderi mari de organizare a unei exploatări ineficiente. La
rândul ei, o eroare de tip II, care presupune admiterea ipotezei de nul şi negarea
existenţei unui zăcământ real, ar conduce la pierderi prin neexploatarea aurului existent.

165
La fel, în plan psihologic, dacă obiectul testului statistic ar fi efectul unei noi metode de
tratament psihoterapeutic, este la fel de rău să fie acceptată utilizarea ei, deşi nu este
eficientă (eroare de tip I), ca şi respingerea utilizării, dacă ar fi eficientă (eroare de tip II),
deoarece pacienţii sunt lipsiţi de un serviciu util.

6.13.1.3. Eroarea de tip III

Erorile de tip I şi II nu epuizează toate situaţiile de eroare posibile într-o cercetare


statistică. Howard Raiffa, într-o lucrare clasică de teoria deciziei, a introdus noţiunea de
eroare de tip III (Raiffa, 1968 ). Ulterior, acest tip de eroare a fost luat în discuţie şi de
alţi autori (Hack, 2004; Hsu, 1999), conturându-se două accepţiuni de bază ale
termenului:

a. Respingerea corectă a ipotezei de nul, urmată de atribuirea ncorectă a cauzei,


definiţie care corespunde cu definiţia iniţială propusă de Raiffa. În acest sens
eroarea de tip II înseamnă o interpretare greşită a rezultatului. Cercetătorul
concluzionează că „ceva semnificativ se întâmplă” şi, într-un fel, are dreptate, ceva
se întâmplă, dar nu ceea ce crede el. Exemplul clasic este ilustrat de „efectul de
noutate”. Dacă introducem o noua metodă dentrenament bazată pe joc pentru
stimularea învăţării, copiii ar putea fi atraşi denoutatea situaţiei în raport cu
modalitatea clasică de învăţare a regulilor de circulaţie. Ca urmare,unrezultat
semnificativ diferit faţă de metoda utilizată pe un grup de control (care a învăţat
după metoda clasică) s-ar datora nu neapărat efectului noii metode, ci caracterului
de noutate şi interes pe care îl prezintă aceasta. Este evident că cercetătorul este
înclinat să considere efectul ca fiind generat de metoda investigată, dar acest lucru
trebuie dovedit ca atare, nu este suficient să fie asumat. Efectul
placebo poate fi inclus de asemenea în categoria erorilor de tip III, dar nu toate
erorile de tip III sunt de tip placebo.
Nu există metode statistice pentru eliminarea erorii de tip III, în această accepţie.
Singura protecţie vine dinspre calitatea modelului de cercetare. Pentru evaluarea
efectului placebo, de exemplu, studiile medicale prevăd protocoale de tip „dublu

166
orb”, în care nici cei care administrează medicamentul şi nici pacienţii nu ştiu dacă
dau/iau medicamentul supus cercetării sau un placebo.

b. A doua definiţie a erorii de tip III este similară cu prima, dar este diferită sub un
aspect esenţial. În acest caz rezultatul cercetării conduce la confirmarea a unui
„efect” sau „relaţii între variabile”, dar sensul (direcţia) efectului este greşit
interpretat. Dacă revenim la exemplul anterior, ne putem imagina că rezultatele
cercetării susţin concluzia că efectul noii metode de
învăţare este superior celei vechi deşi, în realitate, situaţia stă exact invers,
concluzia fiind greşită. În această accepţie, probabilitatea erorii de tip III este
codificată cu litera γ (gamma), iar unele programe statistice sunt capabile să o
estimeze. Evident, eroarea de tip III se poate manifesta numai în cercetări de tip
experimental, singurele care permit concluzii de natură cauzală.
Conceptul de eroare de tip III este fundamental diferit de celelalte două tipuri de
erori. Existenţa lui vine să ne aducă aminte că cercetarea ştiinţifică vizează în
ultimă instanţă un adevăr al realităţii, care nu este complet demonstrat de
raţionamentul decizional statistic, bazat pe atitudinea faţă de ipoteza cercetării şi
admiterea sau respingerea ipotezei de nul. Principala lui utilitate este aceea că ne
atrage atenţia asupra vulnerabilităţii cercetărilor statistice, subliniind relativitatea
acestora şi faptul că simpla declarare drept semnificativă a rezultatului unei
cercetări nu probează în mod suficient adevărul ipotezei şi nici nu reflectă în mod
sigur realitatea. Existenţa erorii de tip III este unul din argumentele împotriva
asumării simpliste a rezultatelor statistice pe baza deciziei cu privire la ipoteza de
nul. Mijlocul esenţial de protecţie împotriva erorii de tip III este stabilitatea
rezultatelor de la o cercetare la alta, replicabilitatea lor, care înseamnă obţinerea
aceloraşi rezultate la repetarea studiului în aceleaşi condiţii.

6.14. Puterea testului

Revenind la analogia cu muntele aurifer, să presupunem că rezultatul cercetării ne


impune admiterea ipotezei de nul, implicit respingerea ipotezei că muntele conţine aur.
Într-un astfel de caz avem două posibilităţi de interpretare a acestui rezultat:

167
a. fie rezultatul cercetării este corect, ipoteza de nul este de fapt adevărată (ipoteza
cercetării este realmente falsă), iar muntele nu conţine aur (elevii olimpici nu sunt
mai inteligenţi decât populaţia elevilor în general);
b. fie ipoteza de nul este falsă, ceea ce ar însemna că zăcământul de aur există
(olimpicii sunt mai inteligenţi), dar explorarea noastră nu a avut suficientă „putere”
(„sensibilitate”) pentru a surprinde existenţa aurului (relaţia dintre participarea la
olimpiadă şi nivelul de inteligenţă). În acest caz, prin acceptarea ipotezei de
nul(respingerea ipotezei cercetării) am comis o eroare de tip II.
„Puterea testului” este definită prin capacitatea sau „sensibilitatea” unui test statistic de
a detecta un efect real (sau o legătură reală) între variabile. Înţelegem prin „efect real”
faptul că modificări ale valorilor unei variabile se regăsesc în modificări ale valorilor
celeilalte variabile (indiferent dacă relaţia este de tip cauzal sau de tip asociativ).
Formulat în termeni statistici, puterea testului este probabilitatea de a respinge ipoteza
de nul atunci când ea este cu adevărat falsă, şi se exprimă ca 1-beta (probabilitatea
erorii de tip II). Această situaţie corespunde celei mai bune decizii pe care şi-o poate dori
un cercetător: să dovedească că ipoteza a cercetării este realmente adevărată. Dacă în
viaţa reală ipoteza de nul este falsă, dar datele cercetării ne obligă totuşi să o acceptăm,
atunci putem spune că cercetarea noastră a avut o putere insuficientă pentru a
determina respingerea ei şi, implicit, confirmarea ipotezei cercetării.

Aşa cum am văzut, eroarea de tip II şi puterea testului sunt complementare. Ca urmare,
putem calcula eroarea de tip II ca beta=1-puterea testului. Cu alte cuvinte, cu cât
puterea testului este mai mare, cu atât probabilitatea erorii de tip II (acceptarea
nejustificată a ipotezei de nul) este mai mică. Dacă presupunem că puterea unui
experiment psihologic este de 0.85, rezultă că probabilitatea erorii de tip II este 1-0.85,
adică 0.15. Complementar, dacă puterea experimentului (cercetării) ar fi de 0.15, atunci
probabilitatea erorii de tip II s-ar ridică la 1-0.15, adică 0.85.

6.14.1. Factori care contribuie la creşterea puterii testelor statistice

Puterea testului statistic sau, la fel de bine spus, a cercetării, poate fi calculată
matematic. Introducerea procedurilor de calcul pentru puterea testului este dincolo de

168
obiectivele pe care ni le propunem aici, mai ales că ele nu se regăsesc în pachetele
obişnuite de analiză statistică. Vom reţine însă, o serie de metode prin care poate fi
asigurată creşterea puterii testelor statistice, aşa cum sunt ele sintetizate în literatura
statistică (B. Cohen, 2004, Spata, 2003):

Aşa cum ştim, eroarea standard a mediei este cu atât mai mare cu cât eşantionul este
mai mic. Ca urmare, una din modalităţile prin care putem creşte puterea este creşterea
volumului eşantionului (N).
O cale de creştere a puterii este maximizarea variabilităţii primare, aceea care decurge
ca urmare a „efectului” unei variabile asupra celeilalte. Aceasta deoarece „efectul”
variabilei independente se manifestă mai puternic pe grupurile de subiecţi aflate la
extremităţile scalei de măsurare a variabilei dependente decât pe valorile întregii scale.
Dacă împrăştierea datelor de cercetare este mică, atunci puterea testului de a surprinde
un efect semnificativ se reduce.
Reducerea erorilor de măsurare are ca efect mărirea puterii cercetării. În acest scop
trebuie avute în vedere: utilizarea unor proceduri de investigare adecvate; controlul şi
eliminarea surselor de eroare; tratarea identică a tuturor subiecţilor cercetării;
selectarea aleatoare a eşantioanelor sau, în cazul unei eşantionări nealeatoare,
eliminarea surselor de selecţie „părtinitoare” (bias).
Modelul de cercetare, prin el însuşi, este cel care poate creşte puterea unui studiu. De
exemplu, modelele de cercetare within-subjects (intra-subiect), care măsoară aceiaşi
subiecţi în condiţii diferite, au mai multă putere decât modelele between-subjects (inter-
subiect), în care sunt comparate grupuri de subiecţi diferiţi în condiţii diferite.
Testul bilateral reduce probabilitatea erorii de tip I, dar creşte probabilitatea erorii de tip
II şi, implicit, reduce puterea. Ca urmare, ori de câte ori este justificabil, se va opta
pentru test unilateral, chiar dacă, în practică, testul bilateral este cel uzual.
Testele parametrice prezintă o putere statistică mai mare decât cele neparametrice,
motiv pentru care, utilizarea acestora din urmă se va face doar atunci când este absolut
necesar (în conformitate cu condiţiile de aplicare). Nu se va renunţa cu uşurinţă la un
test parametric, dacă datele cercetării sunt măsurate pe scală cantitativă.

169
Nu trebuie să înţelegem însă, că asigurarea unei puteri cât mai mari este principalul
obiectiv pentru un cercetător. Prea multă putere este tot atât de nedorit ca şi prea
puţină. Dacă avem în vedere intercondiţionările din procesul deciziei statistice, atunci
trebuie să observăm că prin creşterea puterii reducem probabilitatea erorii de tip II, dar
creştem probabilitatea erorii de tip I. Cu alte cuvinte, dacă un studiu are o putere mare,
de exemplu prin utilizarea unui eşantion foarte mare, atunci creşte probabilitatea de a
respinge ipoteza de nul, chiar dacă aceasta este adevărată. Ne aflăm aici în situaţia care
a generat critici vehemente cu privire la cercetările statistice, şi care a fost exprimată în
maniera cea mai directă de Thompson (1998a) „... testul statistic devine o căutare
tautologică pentru suficienţi participanţi în măsură să atingă semnificaţia statistică”.

Calitatea deciziei unei cercetări reprezintă rezultatul unei „negocieri” între nivelul
acceptat pentru erorile de tip I şi II. Cu cât prima este mai mică, cu atât a doua este mai
mare, şi invers. Să presupunem că studiul privind inteligenţa olimpicilor este efectuat în
mod identic de doi cercetători, dar unul dintre ei fixează nivelul lui alfa la 0.05, iar al
doilea, la 0.01. Dacă în urma prelucrării datelor rezultatului obţinut îi corespunde un
p=0.03, primul cercetător va respinge ipoteza de nul, confirmând ipoteza cercetării, în
timp ce al doilea va fi nevoit să admită ipoteza de nul şi să respingă ipoteza cercetării.
Prin fixarea unui nivel mai redus pentru alfa, al doilea cercetător a redus probabilitatea
erorii de tip I, dar a redus şi puterea testului, mărind în schimb riscul erorii de tip II
(respingerea unei ipoteze de cercetare adevărate).

În concluzie, atunci când fixăm criteriile de decizie statistică trebuie să fim conştienţi de
următoarele aspecte:

-cu cât este mai mic pragul alfa, cu atât puterea testului este mai mică şi invers, cu cât
alfa este mai mare, cu atât puterea testului este mai mare;
-cu cât alfa este mai mic, cu atât scade probabilitatea erorii de tip I (respingerea
ipotezei de nul când aceasta este adevărată);
-cu cât alfa este mai mic, cu atât testul este mai „riguros”, probabilitatea de a confirma
ipoteza cercetării dacă este falsă, fiind mai mică;

170
-un prag alfa de 0.01 (comparat cu 0.05 sau 0.1) înseamnă că cercetătorul este precaut,
dorind să îşi asume un risc de a greşi de 1 dintr-o sută de cazuri atunci când respinge
ipoteza de nul, dacă aceasta este adevărată;
-un prag alfa de 0.01 înseamnă că există 99% şanse de a decide că nu există diferenţe
atunci când acestea într-adevăr nu există;
-mărind nivelul lui alfa (de la 0.01 la 0.05 sau 0.1), creştem riscul de a face o eroare de
tip I şi reducem riscul de a face o eroare de tip II, ceea ce înseamnă şi o reducere a
rigorii testului;
-în egală măsură, dacă mărim pragul alfa, de la 0.01, la 0.05 sau 0.1, mărim puterea,
deoarece creştem probabilitatea de respingere a ipotezei de nul (acceptând ipoteza
cercetării), atunci când aceasta din urmă este adevărată (eroare de tip I).
Din cele spuse s-ar putea deduce că, dacă ne propunem cea mai mare valoare pentru
puterea testului, atunci singura opţiune pe care o avem este să fixăm pragul alfa la
nivelul maxim permis de convenţia ştiinţifică (0.05). În realitate, problema nu este atât
de simplă, deoarece obiectivul unei cercetări nu se poate limita doar la atingerea
pragului de semnificaţie. Aşa cum am văzut, acesta poate fi atins prin mărirea volumului
eşantionului, iar simpla constatare a unui rezultat semnificativ nu ne spune nimic despre
intensitatea relaţiei dintre variabilele studiate, despre importanţa practică şi despre
utilitatea rezultatului obţinut.

Cunoaşterea puterii unei cercetări este utilă în două situaţii:

a. În faza premergătoare a unei cercetări estimarea puterii este utilă pentru a evalua
şansa de a obţine un rezultat semnificativ statistic în contextul unei cercetări. Dacă
puterea estimată a testului este prea mică, devine lipsit de interes să angajăm
eforturi şi costuri pentru conducerea acelei cercetări. Cât de mică poate fi puterea
unei cercetări pentru a accepta efectuarea ei? La aceasta întrebare cei mai mulţi
cercetători consideră că 0.5 este prea puţin pentru a investi timp şi bani în
efectuarea ei. O putere de 0.7, care corespunde unei probabilităţi de 0.3 pentru
eroarea de tip II, este considerată ca fiind minimă, iar o putere de 0.8 este

171
considerat cel mai bun compromis între nivelul puterii şi consecinţele negative de
care am vorbit anterior (B. Cohen, 2001).
b. După efectuarea unei cercetări, pentru a şti care este probabilitatea ca rezultatul
acesteia să indice un „efect” al variabilei independente asupra variabilei dependente
atunci când acest efect există şi în realitate.
În practică calcularea puterii unei cercetări se face cu programe specializate. Unul dintre
cele mai accesibile şi mai cunoscut dintre acestea este GPower, care poate fi descărcat
gratuit de la adresa http://www.psycho.uni-duesseldorf.de/aap/projects/gpower/
(Buchner, Erdfelder & Faul, 1997).

6.15. Mărimea efectului

Să considerăm că rezultatul explorării muntelui presupus aurifer conduce la respingerea


ipotezei de nul, iar geologii concluzionează că eşantionul conţine aur într-o proporţie
„semnificativă”. Înseamnă oare acest lucru că muntele conţine „mult aur”? Desigur, nu.
Înseamnă doar că acea cantitate de aur găsită în eşantion are o probabilitate prea mică
să fie acolo din întâmplare, motiv pentru care s-a decis că prezenţa ei semnalează o
concentraţie „similară” la nivelul întregului munte (populaţii). Cât de „mare” este
cantitatea de aur nu putem şti doar pe baza testului de semnificaţie statistică, deoarece
acesta nu exprimă decât o decizie probabilistică şi nu o evaluare cantitativă.

Situaţia este identică în cazul cercetării cu privire la relaţia dintre participarea la


olimpiadele şcolare şi nivelul de inteligenţă, unde am obţinut pentru eşantionul de
olimpici o medie QI=106. Aplicând criteriile deciziei statistice, am concluzionat că
diferenţa de 6 unităţi faţă de media populaţiei (QI=100) este semnificativă şi am respins
ipoteza de nul. Dar ce putem spune despre această diferenţă, cât de „mare” este ea? În
vorbirea curentă, prin „semnificativ” se înţelege şi „important” sau „mare”. În cazul
deciziei statistice însă, „semnificativ” are un înţeles limitat la expresia „probabilitate prea
mică pentru a rezulta din întâmplare”. De aceea, din ce în ce mai mulţi autori (Daniel,
1998; Denis, 2003; Fan, 2001; Kotrlik & Williams, 2003; Thompson, 1998b) consideră că
decizia statistică nu este suficientă pentru a proba integral valoarea unei ipoteze de
cercetare. Respingerea ipotezei de nul pe baza criteriului alfa nu oferă suficientă

172
informaţie cu privire la relaţia dintre variabilele cercetării. Este evident că rezultatul
testului (QI=106) conţine şi o componentă de „mărime”. Dacă media eşantionului ar fi
fost 108, sau 120, diferenţa ar fi fost mai mare decât 106. Şi totuşi, respingerea ipotezei
de nul şi considerarea rezultatului drept „semnificativ” nu exprimă în nici un fel nivelul
de „mărime” al diferenţei. Mai mult, ne amintim că puterea testului creşte pe măsură ce
creşte volumul eşantionului. Ca urmare, un rezultat „semnificativ” poate fi obţinut fie şi
numai prin creşterea numărului de subiecţi, fără ca relaţia dintre cele două variabile să
fie una „intensă”.

Problema semnalată este mai acută decât pare la prima vedere. Criticii deciziei bazate pe
testarea ipotezei de nul merg până acolo încât cer eliminarea acestui model de decizie
cu privire la ipotezele cercetărilor ştiinţifice. La rândul ei, American Psychological
Association a organizat un grup de lucru având ca obiect elaborarea unor recomandări
cu privire la raportarea rezultatelor statistice (Wilkinson&APA Task Force on Statistical
Inference, 1999). Concluziile acestui grup de lucru stipulează că „raportarea şi
interpretarea mărimii efectului este esenţială pentru o cercetare bună”. În opinia
autorilor, raportarea şi interpretarea mărimii efectului prezintă trei avantaje importante:

facilitează studiile de metaanaliză (studii care sintetizează rezultatele mai multor


cercetări pe aceeaşi temă);
facilitează formularea unor ipoteze cu un grad mai mare de specificitate de către
cercetătorii care vor studia aceeaşi temă;
facilitează integrarea rezultatului unei cercetări în literatura dedicată acelui subiect,
Una dintre soluţiile acestei probleme este calcularea unui indice de „mărime a efectului”
care oferă o informaţie suplimentară, extrem de utilă în interpretarea rezultatului
testelor statistice. Această informaţie ne apropie mai mult de semnificaţia practică a
rezultatului cercetării, ceea ce înseamnă mai mult decât semnificaţia statistică.

6.15.1. Calcularea mărimii efectului pentru testul z (t) pentru un singur


eşantion
Indicele de mărime a efectului este, în esenţă, o valoare numerică ce exprimă „forţa” sau
„mărimea” relaţiei dintre variabilele cercetate, indiferent dacă această este de tip cauzal

173
sau nu. Principial, atunci când comparăm două medii, formula de calcul pentru mărimea
efectului se bazează pe diferenţa dintre aceste medii, raportată la un indicator al
variabilităţii.

În cazul testului z sau t pentru diferenţa dintre media unui eşantion şi media populaţiei,
indicele de mărime a efectului se calculează după formula lui Cohen (1988):

(formula 6.7)

unde:

m=media eşantionului, μ=media populaţiei, σ=abaterea standard a populaţiei (atunci


când nu o cunoaştem, putem utiliza abatarea standard a eşantionului)
Ca urmare, mărimea efectului pentru rezultatul cercetării cu privire la relaţia dintre
participarea la olimpiadele şcolare şi nivelul inteligenţei este:

106−100
d= = 0,4
15

Dat fiind faptul că d este calculat prin raportarea diferenţei la abaterea standard, el este
considerat un indice standardizat al mărimii efectului. Acesta se exprimă printr-un număr

zecimal cuprins între 0 (efect nul) şi 1 (efect maxim). Valori mai mari de 1 pot fi
obţinute uneori, dar numai în cazuri extreme. Valorile mici exprimă un nivel redus al
intensităţii relaţiei dintre variabile (chiar dacă este semnificativă), în timp ce valorile mari
indică o relaţie „intensă” (puternică).

Dar cum putem să interpretăm valoarea lui d? O valoare ca cea obţinută în cercetarea
noastră este „mare”, sau „mică”? În cazul explorării zăcământului aurifer, geologii pot
estima suficient de exact cantitatea de aur pe care o pot extrage din zăcământ, pornind
de la concentraţia de aur din eşantionul explorat. În general, evaluările mărimii efectului

174
în mediul ingineresc sunt de aşteptat să fie mult mai mari decât cele din cercetările
socio-umane. Spre deosebire de ştiinţele naturii, în psihologie răspunsul la această
întrebare nu este uşor de găsit. Ca urmare cercetătorii sunt îndreptăţiţi să dezvolte
propriile repere de apreciere a mărimii efectului ca fiind „mici”, „medii” sau „mari”. În
psihologie, interpretarea valorii lui d se face după un model propus de Cohen (op.cit.),
care a devenit un standard preluat de toţi cercetătorii, şi care fixează doar trei praguri
de mărime(tabelul 6.7):

Tabelul 6.7. Grila de interpretare a indicelui d(Cohen, 1988)

0.20 efect mic

0.50 efect mediu


d (Cohen)
0.80 efect mare

În conformitate cu recomandările lui Cohen, d=0.8 este considerat un efect mare. Nu


atât de mare încât să rezulte ca evident prin observaţie directă, dar suficient de mare
pentru a exista o bună şansă de a fi găsit ca statistic semnificativ prin utilizarea unui
eşantion format dintr-un număr relativ mic de subiecţi. Prin contrast, d=0.2 este
considerat un efect mic. Pentru valori mai reduse decât atât, iniţierea unei cercetări nu
se justifică.

Revenind la studiul din exemplul nostru, rezultatul obţinut corespunde unui nivel
moderat al mărimii efectului (d=0.4). Sau, altfel spus, diferenţa dintre media inteligenţei
elevilor olimpici şi populaţia de elevi are un indice moderat de mărime. Acest lucru ar
putea fi interpretat în sensul că prezenţa la olimpiadă este asociată în mod semnificativ
cu inteligenţa, dar are şi alte componente importante care o determină.

Calcularea mărimii efectului nu este oferită în toate situaţiile de programele de


prelucrare statistică. Din fericire, formulele de calcul nu sunt laborioase, putând fi
aplicate cu uşurinţă pe rezultatele oferite de aceste programe. O prezentare sintetică şi
practică a formulelor de calcul ale mărimii efectului pentru diverse teste statistice de
semnificaţie ne oferă Thalheimer&Cook (2002).

175
6.15.2. Relaţia dintre mărimea efectului şi puterea testului

Mărimea efectului poate fi ilustrată prin gradul de suprapunere dintre distribuţiile supuse
comparaţiei (distribuţia de nul şi distribuţia cercetării). Cu cât suprafaţa comună a celor
două distribuţii este mai mică, mediile celor două distribuţii devin tot mai îndepărtate
una de alta, iar mărimea efectului creşte. Imaginea de mai jos ilustrează exact acest
lucru:

Figura 6.6. Mărimea efectului(diferenţa dintre


medii)şi suprafaţa comună a distribuţiilor
În acelaşi timp, pe măsură ce creşte mărimea efectului,creşte şi puterea testului
(concomitent cu reducerea riscului erorii de tip II)

Figura 6.7.Relaţia dintre mărimea efectului, puterea testului şi erorile statistice

176
6.16. Interpretarea rezultatului unui test statistic
În contextul celor spuse până acum, pentru a putea interpreta mai complet rezultatele
unei cercetări statistice, trebuie să ţinem cont atât de nivelul de semnificaţie, cât şi de
puterea testului şi de mărimea efectului. Un algoritm de evaluare a rezultatului la testul
statistic este prezentat în tabloul următor:

Rezultat
semnificativ Volumul
Concluzii
statistic? eşantionului
(se respinge H0)
- Rezultat important.
- Chiar dacă puterea testului este mică, din
DA MIC cauza volumului redus al eşantionului, existenţa
unui rezultat semnificativ arată o mărime a
efectului importantă.
- Rezultatul poate fi important sau nu:
1. semnificaţia poate rezulta din puterea
ridicată a testului, ca urmare a volumului
DA MARE mare al eşantionului
SAU
2. poate fi expresia unei diferenţe
importante dintre populaţiile comparate.
- Rezultatul este neconcludent. Absenţa
semnificaţiei statistice se poate datora:
1. faptului că ipoteza cercetării este falsă
NU MIC
SAU
2. puterii reduse a testului, ca urmare a
eşantionului prea mică
NU MARE - Ipoteza cercetării ete probabil falsă din cauză
că, în ciuda puterii ridicate (eşantion mare),

177
rezultatul nu a atins nivelul semnificaţiei
statistice.
- Mărimea efectului este foarte mică

*Facem precizarea că în acest context eşantion „mic” sau „mare” nu se referă la N=30
de subiecţi la care am făcut referire în cazul teoremei limitei centrale. Se poate
considera însă un eşantion „mic” ca fiind de ordinul zecilor, iar unul „mare” de ordinul
sutelor.

6.17. Rezumat
1.Eroarea de tip I este probabilitatea de a respinge o ipoteză de nul adevărată (se
acceptă o ipoteză a cercetării care este falsă) – rezultat fals pozitiv.
2.Eroarea de tip II este probabilitatea de a se admite o ipoteză de nul falsă (se respinge
ipoteză a cercetării adevărată) – rezultat fals negativ.

3.Eroare de tip III apare atunci când rezultatul cercetării, deşi semnificativ, este greşit
atribuit efectului variabilei independente, sau este în opoziţie cu sensul real.
4.Erorile de tip I şi II sunt în egală măsură negative dar, de regulă, acordăm mai multă
atenţie erorii de tip I, încercând să ţinem alfa la o valoare cât mai mică.
5.Puterea testului este o mărime probabilistă care indică şansa de a obţine un rezultat
semnificativ statistic.
6.Puterea variază în funcţie de nivelul pragului alfa (eroarea de tip I). Cu cât alfa este
mai mic, cu atât puterea testului scade.
7.Dacă reducem alfa de la 0.05 la 0.01, reducem probabilitatea de a face o eroare de tip
dar, în acelaşi timp, facem mai dificilă respingerea ipotezei de nul şi, în egală măsură,
creştem probabilitatea de a face o eroare de tip II.
8.Puterea testului este complementară erorii de tip II (suma lor este 1).
9.Mărimea efectului este o valoare care indică intensitatea relaţiei dintre variabila
independentă şi variabila independentă.

178
10.Mărimea efectului este în legătură cu puterea testului şi cu volumul eşantionului. Cu
cât puterea este mai mare şi eşantionul este mai mic, cu atât mărimea efectului este
mai ridicată.
11.Calcularea mărimii efectului, alături de semnificaţia statistică, este o exigenţă actuală
în cercetarea ştiinţifică psihologică.

6.18. Exerciţii
1. Calculaţi mărimea efectului pentru exerciţiile 6.12 de la pagina 158 şi apreciaţi
rezultatul prin prisma grilei lui Cohen (utilizând abaterea standard a eşantionului
drept estimare a abaterii standard a populaţiei, acolo unde nu este dată).
2. Care este eroarea de tip II (β) atunci când puterea este : 0,64;0,93?
3. Care este puterea testului dacă eroarea de tip II (β) este de. 0,15; 0,46?
(Verificaţi răspunsurile corecte la secţiunea 14. Rezolvări şi explicaţii la
exerciţiile din volum, Capitolul 6, exerciţiile 6.18)

179
Capitolul 7. Teste statistice parametrice pentru date cantitative

7.1. Testul t pentru eşantioane independente


Testul z (t) pentru un singur eşantion este util într-un model de cercetare în care ne
propunem compararea valorii măsurate pe un eşantion cu media populaţiei din care
acesta provine. Aşa cum am precizat deja, acest tip de cercetare este destul de rar
întâlnit, ca urmare a dificultăţii de a avea acces la media populaţiei.

Un model de cercetare mult mai frecvent însă, este acela care vizează punerea în
evidenţă a diferenţelor care există între două categorii de subiecţi (diferenţa asumării
riscului între bărbaţi şi femei, diferenţa dintre timpul de reacţie al celor care au consumat o
anumită cantitate de alcool faţă de al celor care nu au consumat alcool etc.). În situaţii de
acest gen psihologul compară mediile unei variabile (preferinţa pentru risc, timpul de
reacţie etc.), măsurată pe două eşantioane compuse din subiecţi care diferă sub aspectul
unei alte variabile (sexul, consumul de alcool, etc.). Variabila supusă comparaţiei este
variabila dependentă, deoarece presupunem că suportă „efectul” variabilei sub care se
disting cele două eşantioane şi care, din acest motiv, este variabilă independentă. În
studii de acest gen, eşantioanele supuse cercetării se numesc „independente”, deoarece
sunt constituite, fiecare, din subiecţi diferiţi.

7.1.1. Distribuţia ipotezei de nul pentru diferenţa dintre medii independente

Să ne imaginăm că dorim să vedem dacă un lot de sportivi, trăgători la ţintă, care practică
trainingul autogen (variabila independentă) obţin o performanţă (variabila dependentă)
mai bună decât un lot de sportivi care nu practică această tehnică de autocontrol psihic.
În acest caz, variabila dependentă ia valori prin evaluarea performanţei de tragere, iar
variabila independentă ia valori convenţionale, pe o scală nominală categorială,
dihotomică (practicanţi şi nepracticanţi de şedinţe de relaxare).

În acest exemplu avem două eşantioane de cercetare, unul format din sportivi practicanţi
ai trainingului autogen (TA) şi altul format din sportivi nepracticanţi ai TA. Ipoteza
cercetării susţine că media performanţei celor două grupuri este diferită. Sau, cu alte

180
cuvinte, că cele două grupuri provin din populaţii diferite, respectiv, populaţia sportivilor
practicanţi de TA şi cea a nepracticanţilor de TA. Trebuie să acceptăm faptul că perechea
de eşantioane studiate nu este decât una din perechile posibile. Să privim figura de mai
jos, care ne sugerează ce se întâmplă dacă, teoretic, am extrage (selecta) în mod repetat
de eşantioane perechi din cele două populaţii:

Am pus cuvântul „efect” între ghilimele deoarece, chiar dacă este logic să considerăm că
este vorba de o relaţie de tip cauză-efect, simpla măsurare a diferenţelor pe două
eşantioane de subiecţi nu este suficientă pentru a concluziona o relaţie cauzală. Pentru
aceasta, ar fi mai potrivit, spre exemplu, să măsurăm timpul de reacţie la aceiaşi subiecţi
înainte şi după consumarea unei cantităţi de alcool.

Figura 7.1.Distribuţia diferenţei dintre mediile eşantioanelor independente

Figura 7.1. arată faptul că, pe măsură ce constituim perechi de eşantioane (m11-m21,
etc.) cu valori ale performanţei la ţintă, diferenţa dintre medii devine o distribuţie în
sine, formată din valorile acestor diferenţe. Dacă am reuşi constituirea tuturor perechilor
posibile de eşantioane, această distribuţie, la rândul ei, ar reprezenta o nouă populaţie,
populaţia diferenţei dintre mediile practicanţilor şi nepracticanţilor de training autogen. Şi, fapt
important de reţinut, curba diferenţelor dintre medii urmează legea distribuţiei t. Cu alte
cuvinte, la un număr mare (tinzând spre infinit) de eşantioane perechi, trebuie să ne

181
aşteptăm ca cele mai multe medii perechi sa fie apropiate ca valoare, diferenţa dintre
mediile fiind, ca urmare, mică, tinzând spre 0 şi ocupând partea centrală a curbei.
Diferenţele din ce în ce mai mari fiind din ce în ce mai puţin probabile, vor ocupa
marginile distribuţiei (vezi figura de mai jos). Aceasta este ceea ce se numeşte
„distribuţia ipotezei de nul” pentru diferenţa dintre mediile a două eşantioane
independente.

Figura 7.2. Distribuţia ipotezei de nul a diferenţei dintre mediile eşantioanelor independente

În acest moment este bine să accentuăm din nou semnificaţia statistică a noţiunii de
populaţie. După cum se observă, aceasta nu face referire neapărat la indivizi, ci la
totalitatea valorilor posibile care descriu o anumită caracteristică (psihologică, biologică
sau de altă natură). În cazul nostru, diferenţele dintre mediile eşantioanelor perechi
(fiecare provenind dintr-o „populaţie fizică” distinctă) devin o nouă „populaţie”, de
această dată statistică, compusă din totalitatea diferenţelor posibile, a cărei distribuţie se
supune şi ea modelului curbei t.

7.1.2. Procedura statistică pentru testarea semnificaţiei diferenţei dintre


mediile a două eşantioane independente

Problema pe care trebuie să o rezolvăm este următoarea: este diferenţa dintre cele două
eşantioane suficient de mare pentru a o putea considera că este în legătură cu variabila
independentă, sau este doar una dintre diferenţele probabile, generată de jocul hazardului
la constituirea perechii de eşantioane? Vom observa că sarcina noastră se reduce, de

182
fapt, la ceea ce am realizat anterior în cazul testului z sau t pentru un singur eşantion. Va
trebui să vedem dacă diferenţa dintre două eşantioane reale se distanţează semnificativ de
diferenţa la care ne putem aştepta în cazul extragerii absolut aleatoare a unor perechi de
eşantioane, pentru care distribuţia diferenţelor este normală. Mai departe, dacă
probabilitatea de a obţine din întâmplare un astfel de rezultat (diferenţă) este prea mică
(maxim 5%) o putem neglija şi accepta ipoteza că între cele două variabile este o relaţie
semnificativă.

Dacă avem valoarea diferenţei dintre cele două eşantioane cercetate, ne mai sunt
necesare doar media populaţiei (de diferenţe ale mediilor) şi abaterea standard a
acesteia, pentru a calcula testul z (în cazul eşantioanelor mari) sau cel t (în cazul
eşantioanelor mici). În final, nu ne rămâne decât să citim valoarea tabelară pentru a
vedea care este probabilitatea de a se obţine un rezultat mai bun (o diferenţă mai mare )
pe o bază strict întâmplătoare.

Media populaţiei de diferenţe. Diferenţa dintre mediile celor două eşantioane ale cercetării
face parte, aşa cum am spus, dintr-o populaţie compusă din toate diferenţele posibile de
eşantioane perechi. Media acestei populaţii este 0 (zero). Atunci când extragem un
eşantion aleator dintr-o populaţie, valoarea sa tinde să se plaseze în zona centrala cea mai
probabilă). Dar aceeaşi tendinţă o va avea şi media oricărui eşantion extras din populaţia
pereche. Ca urmare, la calcularea diferenţei dintre mediile a două eşantioane, cele mai
probabile sunt diferenţele mici, tinzând spre zero. Astfel, ele vor ocupa partea centrală a
distribuţiei, conturând o medie tot mai aproape de zero cu cât numărul eşantioanelor
extrase va fi mai mare.

Eroarea standard a diferenţei (împrăştierea), pe care o vom nota cu σ m1-m2, se


calculează pornind de la formula de calcul a erorii standard:

(Formula 7.1)

183
Din raţiuni practice, pentru a obţine o formulă care să sugereze diferenţa dintre medii (m1-
m2), formula de mai sus este supusă unor transformări succesive. Prin ridicarea la pătrat
a ambilor termeni, şi după extragerea radicalului din noua expresie, se obţine:

(Formulă 7.2)

Dacă am utiliza-o pentru calcule, această formulă ar produce acelaşi rezultat ca şi


formula de origine.

Formula erorii standard a distribuţiei diferenţei dintre medii ne arată cât de mare este
împrăştierea diferenţei „tipice” între două medii independente atunci când eşantioanele
sunt extrase la întâmplare.

(Formula 7.3)

Formula 7.3. ne indică faptul că eroarea standard a diferenţei dintre medii este dată de
suma erorii standard a celor două eşantioane. Unul dintre eşantioane are N 1 subiecţi şi o
dispersie σ12 iar celălalt eşantion, N2 subiecţi şi dispersia σ22. Faptul că obţinem eroarea
standard a diferenţei dintre medii ca sumă a erorilor standard a celor două eşantioane
este fundamentat pe o lege statistica a cărei demonstraţie nu se justifică aici.

Pentru a calcula scorul z al diferenţei, vom utiliza o formulă asemănătoare cu formula


notei z pe care o cunoaştem deja:

Aceasta va fi:

(Formula 7.4)

184
Numărătorul exprimă diferenţa dintre diferenţa obţinută de noi (m1-m2) şi diferenţa
dintre mediile populaţiilor (µ1-µ2). Dacă ne amintim că distribuţia ipotezei de nul (µ1-µ2)
are media 0, atunci deducem că expresia (µ1-µ2) poate lipsi. De altfel, dacă am cunoaşte
mediile celor două populaţii nici nu ar mai fi necesară calcularea semnificaţiei diferenţei
dintre eşantioanele care le reprezintă.

Numitorul descrie eroarea standard a diferenţei, calculată cu formula 7.3., adică


împrăştierea diferenţei „tipice” pentru extrageri aleatoare.

În conformitate cu cele spuse până acum, formula finală pentru scorul z al diferenţei
dintre două eşantioane devine :

(Formula 7.5)

Se observă că am eliminat (µ1-µ2) de la numărător, care este întotdeauna 0 şi am


înlocuit σm1-m2 cu expresia echivalentă din formula 7.5. Această formulă ne dă ceea ce se
numeşte valoarea testului z pentru eşantioane mari-independente.

Valoarea astfel obţinută urmează a fi verificată cu ajutorul tabelei z pentru curba normală,
iar decizia statistică se ia în acelaşi mod ca şi în cazul testului z pentru un singur
eşantion.

În formula 7.4 eroarea standard a diferenţelor este calculată pe baza erorii standard a
distribuţiei de eşantionare pentru populaţiile din care sunt extrase cele două eşantioane
(„practicanţi” şi „nepracticanţi” de training autogen). În realitate nu cunoaştem cele
două dispersii. Din fericire, dacă volumul însumat (N 1+N2) al eşantioanelor care dau
diferenţa noastră (m1-m2) este suficient de mare (≥30 dar, de preferat, cât mai aproape
de 100) atunci ne amintim că putem folosi abaterea standard a fiecărui eşantion (s 1
respectiv s2), care aproximează suficient de bine abaterile standard ale celor două
populaţii.

185
Atunci când eşantioanele nu sunt suficient de mari, trebuie să ne aşteptăm la erori
considerabile în estimarea împrăştierii populaţiei pe baza împrăştierii eşantionului. Într-o
astfel de situaţie vom apela, desigur, la un test t, având două opţiuni de calcularea
acestuia:

7.1.2.1. Testul t pentru dispersii diferite


Acesta se bazează pe considerarea separată a dispersiilor celor două populaţii (estimate
prin dispersiile eşantioanelor). Formula este foarte asemănătoare cu formula anterioară
pentru testul z. Vom reţine această formulă ca testul t pentru dispersii diferite:

(Formula 7.6)

Se observă înlocuirea lui σ (pentru populaţie) cu s (pentru eşantion). Utilizarea acestei


formule este destul de controversată deoarece rezultatul nu urmează cu exactitate
distribuţia t, aşa cum am introdus-o anterior. Pentru eliminarea acestui neajuns, se
utilizează o altă variantă de calcul, care ia în considerare dispersia cumulată a celor
două eşantioane.

7.1.3. Testul t pentru dispersia cumulată

Dispersiile celor două eşantioane pot fi considerate împreună pentru a forma o singură
estimare a dispersiei populaţiei (σ2). Obţinem astfel ceea ce se numeşte „dispersia
cumulată”, pe care o vom nota cu s2 şi o vom calcula cu formula următoare:

(Formula 7.7)

La numărător, formula conţine suma dispersiilor multiplicate, fiecare, cu volumul


eşantionului respectiv (de fapt, gradele de libertate, N-1). În acest fel vom avea o
contribuţie proporţională cu numărul de valori ale împrăştierii fiecărui eşantion la
rezultatul final.
186
La numitor, avem gradele de libertate (df) pentru cele două eşantioane luate împreună
(N1+N2-2).

Înlocuind-o în formula 7.6, obţinem formula de calcul a testului t pentru dispersii


cumulate:

(Formula 7.8)

Expresia 7.8 este formula uzuală pentru calcularea diferenţei dintre medii pentru două
eşantioane independente. Chiar dacă a fost introdusă ca utilizabilă pentru „eşantioane
mici”, caracteristicile distribuţiei t ne permit utilizarea ei şi pentru eşantioane mari,
deoarece distribuţia t tinde spre cea normală la valori din ce în ce mai mari ale gradelor
de libertate.

7.1.3. Exemplu de calcul

Să presupunem că vrem să vedem dacă practicarea trainingului autogen (variabila


independentă) determină o creştere a performanţei în tragerea la ţintă, manifestată
printr-un număr mai mare de lovituri în centru ţintei (variabilă dependentă). Pentru
aceasta selectăm un eşantion de 6 sportivi care practică trainingul autogen şi un eşantion
de 6 sportivi care nu îl practică. Pentru fiecare eşantion măsurăm performanţa de tragere.

Formularea ipotezei cercetării, a ipotezei de nul, şi a criteriilor deciziei statistice

Pentru exemplul de mai sus:

Problema cercetării: Are practicarea trainingului autogen un efect asupra performanţei la


tirul cu arcul?

Ipoteza cercetării (H1): „Practicarea trainingului autogen determină un număr mai mare
de puncte la şedinţele de tragere”.

Ipoteza de nul (statistică) (H0): ”Numărul punctelor la şedinţele de tragere nu este mai
mare la cei care practică trainingul autogen”. Această variantă este potrivită cu o testare

187
unilaterală a ipotezei (nu avem în vedere decât eventualitatea ca trainingul autogen să
crească performanţa sportivă).

Dacă, însă, am dori să testăm în ambele direcţii, bilateral, atunci am avea următoarele
versiuni ale ipotezelor:

Ipoteza cercetării: „Performanţa sportivă este diferită la subiecţii care practică training
autogen faţă de cei care nu practică”

Ipoteza de nul (statistică): „Performanţa nu diferă semnificativ în funcţie de practicarea


trainingului autogen”.

Fixarea lui t critic. Optăm pentru efectuarea unui test bilateral, pentru că nu putem şti
dinainte dacă TA nu are un efect negativ asupra performanţei sportive a trăgătorilor la
ţintă. Alegem nivelul α=0,05. Stabilim gradele de libertate: df=N1+N2-2=10

Figura 7.3. Decizia bilaterală pe distribuţia t, pentru a = 0,05 şi 10 grade de libertate

Utilizând tabelul distribuţiei t pentru 10 grade de libertate (adică 12-2) şi α=0,05, bilateral,
găsim t critic=±2.228, la intersecţia coloanei 0.025 şi cu linia pentru 10 grade de
libertate.Valoarea t calculată va trebui să fie cel puţin egală sau mai mare decât t critic,
pentru a putea respinge ipoteza de nul şi a accepta ipoteza cercetării (vezi imaginea de
mai jos).Variabila independentă (calitatea de practicant-nepracticant Training Autogen)
ia două valori, să zicem: „1” pentru practicanţii trainingului autogen şi „2” pentru
nepracticanţi. Valorile „1” şi „2” sunt convenţionale şi ne indică faptul că variabila
independentă a cercetării noastre este măsurată pe o scală nominală, categorială

188
(dihotomică). Variabila dependentă (performanţa de tragere la ţintă) ia valori cantitative,
exprimată în număr de lovituri în centrul ţintei, fiind de tip cantitativ (raport).

Tabelul 7.1 Datele cercetării şi modul de calcul al testului t pentru eşantioane independente

Practicanţi TA („1”) Nepracticanţi TA („2”)


X1 (X1-m1)2 X2 (X2-m2)2
15 2.78 10 2.78
9 18.74 8 0.10
12 1.76 11 7.12
13 0.10 5 11.08
16 7.12 7 1.76
15 2.78 9 0.44
Σ 80 33.28 50 23.28
N 6 6
M 13.33 8.33
s2=∑ ¿¿ ¿ 33,28 23,28
=6,67 =4,66
5 5
s=√ s 2 2,58 2,16

Calculăm după formula de mai sus, testul t pentru dispersii cumulate. Mai întâi, eroarea

standard a diferenţei(numitorul formulei), apoi:

Comparăm t calculat cu t critic din tabelul distribuţiei t: 3.73 > 2.228

Decizia statistică: se respinge ipoteza de nul.

189
Concluzia cercetării: se admite ipoteza cercetării. „Practicarea trainingului autogen este
în legătură cu performanţa de tragere”

7.1.4. Mărimea efectului

Atunci când calculăm testul t, nu valoarea obţinută este relevantă ci probabilitatea care
este asociată acestei valori (p). De exemplu, dacă avem în vedere formula de calcul
pentru t, atunci înţelegem că o valoare t=3.73 nu înseamnă altceva decât faptul că
diferenţa dintre mediile comparate este 3.73 ori mai mare decât eroarea standard estimată
a acelei diferenţe. Chiar dacă probabilitatea asociată acestei valori t este foarte mică, sub
pragul alfa, magnitudinea diferenţei dintre medii poate fi mică. Ca urmare, aprecierea
„importanţei” diferenţei dintre mediile grupurilor cercetate are nevoie de informaţii
suplimentare. Acestea sunt oferite de indicele de mărime a efectului.

Pentru a afla „mărimea efectului” pentru testul t pentru eşantioane independente, se


utilizează indicele d al lui Cohen. Din păcate, pachetele de programe statistice uzuale
(inclusiv SPSS) nu oferă această valoare a lui d. El poate fi însă obţinut relativ uşor cu
formula:

unde numitorul exprimă abaterea standard cumulată a celor două grupuri comparate.

Pentru exemplul nostru, calculăm mărimea efectului înlocuind datele în formula 7.9,
după cum urmează: (Formula 7.9)

190
Interpretarea mărimii lui d se face utilizând aceleaşi praguri propuse de Cohen: 0.20 –
efect mic; 0.50 – efect mediu; 0.80 – efect mare. Valoarea obţinută de noi indică un
nivel ridicat al mărimii efectului, semn al faptului că practicarea şedinţelor de relaxare
are un „efect” important asupra performanţei sportivilor din eşantionul cercetării.

7.1.5. Limitele de încredere ale diferenţei dintre medii

Aşa cum ştim, mediile grupurilor comparate reprezintă doar o estimare a mediei
populaţiilor din care provin, oscilând jurul mediei „adevărate”. În mod similar, diferenţa dintre
mediile celor două eşantioane estimează media populaţiei de diferenţe. Cât de precisă
este această estimare putem afla prin calcularea intervalului de încredere pentru
diferenţa mediilor. Principial, limitele de încredere în acest caz se calculează la fel ca şi
limitele de încredere pentru media populaţiei, după următoarea formulă:

µdif=mdif±tcritic*sdif (Formula 7.10)


unde:

µdif=media populaţiei de diferenţe (µ1-µ2)

mdif=diferenţa dintre mediile eşantioanelor cercetării (m1-m2 )

tcritic=valoarea lui t pentru nivelul de încredere ales (de regulă 95%)

sdif=eroarea standard a diferenţei (calculată cu expresia de la numitorul formulei

7.8)

Înlocuind datele în formulă, obţinem următoarele limite de încredere pentru media


populaţiei de diferenţe:

Limita inferioară µdif=5-2.228* 1.34=2.01

Limita superioară µdif=5+2.228* 1.34=7.98

Imaginea de mai jos ilustrează limitele între care se află, pe distribuţia populaţiei de
diferenţe, având media 0, cu un nivel de încredere de 95%, poziţia mediei reale a
diferenţei dintre grupurile comparate:

191
Relevanţa intervalului de încredere poate fi discutată din mai multe puncte de vedere:

Faptul că media populaţiei de nul (µdif=0) se află în afara limitelor de încrerede


subliniază odată în plus caracterul semnificativ al diferenţei dintre mediile grupurilor
comparate. Cu cât una dintre limite ar fi mai aproape de valoarea 0, cu atât faptul de a
fi obţinut un rezultat semnificativ ar fi mai puţin relevant. Dacă media distribuţiei de nul
ar fi cuprinsă între limitele de încredere ipoteza de nul ar trebui acceptată, indiferent de
rezultatul testului statistic.
Mărimea intervalului de încredere arată precizia estimării rezultatului cercetării. Aceasta
este legată în mod direct de eroarea standard a diferenţei (eroarea de estimare) care, la
rândul ei, depinde de numărul subiecţilor din cele două eşantioane, dar şi de
omogenitatea valorilor măsurate.
În măsura în care variabila testată are o utilitate practică, limitele de încredere scot în
evidenţă dacă rezultatul are o semnificaţie în raport cu criterii de ordin practic. De
exemplu, în cazul nostru, antrenorul sportivilor respectivi poate aprecia în ce măsură un
progres al performanţei care poate fi între 2 şi 7 puncte ar aduce o clasare mai bună la
concursurile de profil sau, dimpotrivă, este „nerentabil”.
Limitele de încredere nu prezintă o utilitate practică atunci când valorile variabilei nu au
o semnificaţie prin ele însele. Să ne imaginăm, spre exemplu, un experiment în care un
grup priveşte un film trist, iar un alt grup priveşte un film vesel, după care starea de
spirit a celor două grupuri este evaluată prin numărarea cuvintelor triste sau vesele pe
care subiecţii şi le pot aminti dintr-o listă citită imediat după vizionare. În această situaţie
este greu de atribuit o utilitate practică limitelor de încredere ale „numărului de cuvinte
evocate”. Nu acelaşi lucru se întâmplă dacă, de exemplu, în cazul unui experiment în care
utilizarea unui anumit tip de exerciţii la locul de muncă se traduce în creşterea
productivităţii muncii, măsurată prin numărul de produse finite. Este evident că numărul de
produse finite este un indicator cu relevanţă practică, uşor de interpretat. Cu toate

192
acestea, chiar şi atunci când nu prezintă o relevanţă practică directă, calcularea limitelor de
încredere oferă o imagine a gradului de precizie a estimării testului statistic, fapt care face
necesară cunoaşterea lor şi raportarea lor.

7.1.6. Interpretarea rezultatului la testul t pentru eşantioane independente

Atunci când valoarea calculată a testului este egală sau mai mare decât t critic (ceea ce
este echivalent cu „p este mai mic sau egal cu alfa”), rezultatul justifică aprecierea ca
semnificativă a diferenţei dintre mediile celor două eşantioane (adică suficient de mare
pentru a respinge ipoteza că ar putea fi întâmplătoare). Modelul de cercetare nu permite
formularea acestei concluzii în termenii unei relaţii cauzale între practicarea trainingului
autogen şi performanţa sportivă, oricât de tentată ar fi această concluzie. Cel puţin nu în
contextul acestui model de de cercetare. Dacă acelaşi grup de subiecţi ar fi fost supus
evaluării performanţei de extragere în zile cu training autogen şi în zile fără training
autogen, concluzia ar fi putut fi de ordin cauzal.

În plus, existenţa unei diferenţe semnificative nu este similară cu existenţa unei diferenţe cu
valoare practică. Este posibil ca diferenţa dintre cele două loturi de sportivi, deşi
semnificativă statistic, să nu justifice costurile angajate în desfăşurarea programului de
relaxare psihică. Într-o asemenea situaţie, studiul nu este lipsit de valoare dar concluziile
sunt utile doar în plan teoretic.

7.1.7. Publicarea rezultatului

La publicarea testului t pentru diferenţa dintre mediile a două eşantioane independente


vor fi menţionate: mediile şi abaterile standard ale fiecărui eşantion, volumul
eşantioanelor sau gradele de libertate, valoarea testului, nivelul lui p, mărimea efectului şi
limitele de intervalului de încredere pentru diferenţa dintre medii.

În formă narativă, rezultatul pentru exemplul de mai sus poate fi formulat astfel:
„Sportivii care practică trainingul autogen au fost comparaţi cu cei care nu practică.
Primii au realizat o performanţă mai bună (m=13.33, σ=2.58) faţă de ceilalţi (m=8.33,
σ=2.16), t(10)=3.65, p<0.05. Mărimea efectului este mare (d=2.1), iar limitele de
încredere (95%) pentru diferenţa mediilor sunt cuprinse între 2.01 şi 7.98”.

193
7.1.8. Condiţiile în care putem calcula testul t pentru eşantioane
independente

-Eşantioane aleatoare (ideal), sau neafectate de erori de eşantionare (bias);


-Eşantioane independente (distincte din punctul de vedere al variabilei independente,
care determină constituirea grupurilor);
-Variabila supusă măsurării să se distribuie normal în ambele populaţii. Aceasta ne
garantează că şi distribuţia diferenţelor dintre medii se distribuie normal. Totuşi, teorema
limitei centrale ne permite asumarea normalităţii distribuţiei mediei de eşantionare chiar şi
în cazul variabilelor care nu se distribuie normal la nivelul populaţiei, pentru eşantioane
mari. Dacă însă, analiza distribuţiilor indică forme aberante, iar volumul grupurilor
comparate este foarte mic, se va alege soluţia unui test neparametric. Vom menţiona,
totuşi, că testele t sunt robuste la încălcarea condiţiei de normalitate.
-Dispersia celor două eşantioane să fie omogenă. Testul t poate fi aplicat strict în
cazurile în care dispersiile celor două populaţii („practicanţi”, „nepracticanţi”) au aceeaşi
dispersie (omogenitatea dispersiei). Din fericire, există trei situaţii în care această condiţie
nu trebuie să ne preocupe:
 când eşantioanele sunt suficient de mari (cel puţin 100 fiecare)
 când cele două eşantioane au acelaşi volum (N1=N2)
 când dispersiile celor două eşantioane nu diferă semnificativ (dar, chiar şi pentru
acest caz, există formule care ţin cont de diferenţa dispersiilor).

7.1.9. Când se utilizează testul t pentru eşantioane independente?

Generic, acest test statistic se utilizează în situaţiile în care vrem sa aflăm dacă o variabilă
dependentă, măsurată pe o scală de interval/raport, diferă semnificativ între două
grupuri (eşantioane) diferenţiate pe o variabilă independentă măsurată pe scala de tip
nominal (dihotomic), sau bi-categorială, indiferent de natura ei. Deoarece este unul
dintre modelele frecvent întâlnite în practica cercetării psihologice, utilizarea testului t
pentru eşantioane independente este şi ea des întâlnită în literatura de specialitate.

194
7.1.10. Exerciţii
Într-un studiu asupra efectelor unui nou tratament al fobiei, datele pentru grupul
experimental obţinute printr-o scală de evaluare a tendinţelor fobice sunt: m 1=27.2,
s1=4 şi N1=15 Datele pentru grupul de control sunt: m2=34.4, s2=14 şi N2=15
Formulaţi:
1.Problema (întrebarea) cercetării
2.Ipoteza cercetării (H1)
3.Ipoteza de nul (H0)
4.Aflaţi t critic pentru α=0.05; bilateral
Notă: Deşi datele din exemplu arată că m1 este mai mic decât m2, vom alege un test
bilateral pentru a nu uita că, în practică, criteriile deciziei statistice sunt fixate înaintea
măsurării experimentale, când, deci, nu aveam de unde şti care vor fi valorile pe care le
vom obţine.

5.Calculaţi testul t pentru diferenţa dintre cele două eşantioane


6.Calculaţi intervalul de încredere (99%) pentru diferenţa dintre mediile populaţiilor.
7.Calculaţi mărimea efectului
8.Formulaţi şi motivaţi decizia statistică
9.Formulaţi concluzia cercetării, cu respectarea recomandărilor de raportare pentru
acest test.
(Verificaţi răspunsurile corecte la secţiunea 14. Rezolvări şi explicaţii la
exerciţiile din volum, Capitolul 7, exerciţiile 7.1.10)

7.2. Testarea diferenţei dintre mai mult de două medii independente: analiza
de varianţă (ANOVA)
În situaţia în care am comparat performanţa la ţintă a celor două grupe de sportivi
(practicanţi şi nepracticanţi de training autogen), testul t a rezolvat problema
semnificaţiei diferenţei dintre două medii. În practica de cercetare ne putem întâlni însă cu
situaţii în care avem de comparat trei sau mai multe medii. De exemplu, atunci când am
efectuat un test de cunoştinţe de statistică şi dorim să ştim dacă diferenţele constatate
între cele 5 grupe ale unui an de studiu diferă semnificativ. Performanţa la nivelul fiecărei

195
grupe este dată de media răspunsurilor corecte realizate de studenţi. La prima vedere, am
putea fi tentaţi să rezolvăm problema prin compararea repetată a mediei grupelor, două
câte două. Din păcate, există cel puţin trei argumente pentru care această opţiune nu este de
dorit a fi urmată:

 În primul rând, volumul calculelor ar urma sa fie destul de mare, şi ar creşte şi


mai mult dacă numărul categoriilor variabilei independente ar fi din ce în ce mai
mare.

 În al doilea rând, problema cercetării vizează relaţia dintre variabila dependentă


(în exemplul de mai sus, performanţa la statistică) şi variabila independentă,
exprimată prin ansamblul tuturor categoriilor sale (grupele de studiu). Ar fi bine să
putem utiliza un singur test şi nu mai multe, pentru a afla răspunsul la problema
noastră.

 În fine, argumentul esenţial este acela că, prin efectuarea repetată a testului t cu
fiecare decizie statistică acumulăm o cantitate de eroare de tip I de 0.05 care se
cumulează cu fiecare pereche comparată, ceea ce duce la depăşirea nivelului
admis de convenţia ştiinţifică. Să presupunem că dorim să testăm ipoteza unei relaţii
dintre nivelul anxietăţii şi intensitatea fumatului, evaluată în trei categorii: 1-10 ţigări
zilnic; 11-20 ţigări zilnic şi 21-30 ţigări zilnic. În acest caz, avem trei categorii ale
căror medii ar trebui comparate două câte două. Dar, în acest fel, prin efectuarea
repetată a testului t pentru eşantioane independente, s-ar cumula o cantitate
totală de eroare de tip I de 0.15 adică 0.05+0.05+0.05.

Pentru a elimina aceste neajunsuri, şi mai ales pe ultimul dintre ele, se utilizează o
procedură statistică numită analiza de varianţă (cunoscută sub acronimul ANOVA, de la
„ANalysis Of VAriance”, în engleză). În mod uzual, analiza de varianţă este inclusă într-o
categorie aparte de teste statistice. Motivul pentru care o introducem aici, imediat după
testul t pentru eşantioane independente, este acela că, în esenţă, ANOVA nu este altceva
decât o extensie a logicii testului t pentru situaţiile în care se doreşte compararea a mai
mult de două medii independente. Dar, dacă problema este similară, soluţia este, aşa cum
vom vedea, diferită.
196
Există mai multe tipuri de ANOVA, două fiind mai frecvent folosite:

1. ANOVA unifactorială, care se aplică atunci când avem o variabilă dependentă


măsurată pe o scală de interval/raport măsurată pentru trei sau mai multe valori
ale unei variabile independente categoriale. În contextul ANOVA, variabila
independentă este denumită „factor”, iar valorile pe care acesta le ia se numesc
„niveluri”. Din acest motiv, modelul de analiză de varianţă cu o singura variabilă
independentă se numeşte „ANOVA unifactorială”, „ANOVA simplă” sau, cel mai
frecvent, „ANOVA cu o singură cale” (One-way ANOVA).
o Exemple:

a. Nivelul anxietăţii în raport cu trei categorii de fumători („1-10 ţigări zilnic”, „11-20
ţigări” şi „21-30 ţigări”).
b. Timpul de răspuns la un strigăt de ajutor, în funcţie de natura vocii persoanelor
care solicită ajutorul (copil, femeie, bărbat).
c. Scorul la un test de cunoştinţe statistice ale studenţilor de la psihologie, în funcţie
de tipul de liceu absolvit (reai, umanist, agricol, artistic).
2. ANOVA multifactorială, care se aplică atunci când avem o singură variabilă
dependentă (la fel ca în cazul ANOVA unifactorială) dar două sau mai multevariabile
independente, fiecare cu două sau mai multe valori, măsurate pe o scalăcategorială
(nominală sau ordinală).
Exemple

a) Nivelul anxietăţii în raport cu intensitatea fumatului („1-10 ţigări zilnic”, „11-20


ţigări” şi „21-30 ţigări”), şi cu genul (masculin, feminin). În acest caz, problema
cercetării este dacă intensitatea fumatului şi caracteristica de gen au, împreună, o
relaţie cu nivelul anxietăţii.

b) Timpul de răspuns la un strigăt de ajutor în funcţie de natura vocii care solicită


ajutorul (copil, femeie, bărbat) şi de genul (masculin, feminin) al persoanei care
trebuie să răspundă la solicitarea de ajutor.

197
c) Scorul la un test de cunoştinţe statistice ale studenţilor de la psihologie, în funcţie
de tipul de liceu absolvit (reai, umanist, agricol, artistic) şi de genul (masculin,
feminin) al studenţilor.

Ne vom limita aici doar la prezentarea analizei de varianţă unifactoriale, urmând să


revenim cu alt prilej asupra altor variante de ANOVA.

7.2.1. Cadrul conceptual pentru analiza de varianţă unifactorială

Să ne imaginăm o cercetare a cărei ipoteză este că relaţia dintre performanţa sportivilor


în tragerea la ţintă şi trei metode de antrenament (să le denumim metoda 1, metoda 2
şi metoda 3).

În esenţă, ANOVA este o procedură de comparare a mediilor eşantioanelor. Specificul ei


constă în faptul că în locul diferenţei directe dintre medii se utilizează dispersia lor,
gradul de împrăştiere. Procedura se bazează pe următorul demers logic: Ipoteza
cercetării sugerează că performanţa sportivilor antrenaţi cu fiecare dintre cele trei metode
de antrenament face parte dintr-o populaţie distinctă, căreia îi corespunde un nivel
specific de performanţă (adică o medie caracteristică, diferită de a celorlalte două
populaţii). Prin opoziţie, ipoteza de nul ne obligă să presupunem că cele trei eşantioane 1
(modele de antrenament) pe care vrem să le comparăm, provin dintr-o populaţie unică de
valori ale performanţei, iar diferenţele dintre mediile lor nu reprezintă decât expresia
variaţiei fireşti a distribuţiei de eşantionare.

În imaginea de mai jos populaţiile cercetării (Pc1, Pc2, Pc3) sunt exprimate cu linie
continuă, iar populaţie de nul cu linie discontinuă.

198
Figura 7.4. Populaţia de nul şi populaţiile cercetării în analiza de varianţa

Chiar dacă absenţa unei legături între metoda de antrenament şi intensitatea nivelul
performanţei (ipoteză de nul) este adevărată, cele trei grupuri (eşantioane) nu trebuie
să aibă în mod necesar aceeaşi medie. Ele pot avea medii diferite care să rezulte ca
expresie a variaţiei aleatoare de eşantionare (m1≠m2≠m3) şi, de asemenea, împrăştieri
(dispersii) diferite (s1≠s2≠s3). Să ne gândim la cele trei medii pe care vrem să le
comparăm, ca la o distribuţie de sine stătătoare de trei valori (sau mai multe, pentru cazul
în care variabila independentă are mai multe categorii). Cu cât ele sunt mai diferite una
de alta, cu atât distribuţia lor are o împrăştiere (varianţă) mai mare. Este evident faptul că
dacă eşantioanele ar aparţine populaţiei de nul, diferenţa mediilor (exprimată prin
dispersia lor) ar fi mai mică decât în cazul în care acestea ar proveni din populaţii
distincte (corespunzător ipotezei cercetării).

Mai departe, se pune următoarea problemă: cât de diferite (împrăştiate) trebuie să fie
mediile celor trei eşantioane, luate ca distribuţie de sine stătătoare de trei valori, pentru
ca să putem concluziona că ele nu provin din populaţia de nul (dreptunghiul punctat), ci
din trei populaţii diferite, corespunzătoare eşantioanelor de cercetare (Pc1, Pc2, Pc3)?

Pentru a răspunde la această întrebare este necesar:

a. Să calculăm dispersia valorilor individuale la nivelul populaţiei de nul, care se bazează


pe valorile performanţei tuturor valorilor măsurate, indiferent de metoda de antrenament;
b. Să calculăm dispersia mediilor anxietăţii grupurilor cercetării (considerate ca
eşantioane separate);

199
Pentru simplificare, în continuare ne vom referi numai la trei eşantioane, dar se va
înţelege „trei sau mai multe”
c. Să facem raportul dintre aceste două valori. Obţinerea unei valori mai ridicate a
acestui raport ar exprima apartenenţa fiecăreia din cele trei medii la o populaţie distinctă,
în timp ce obţinerea unei valori mai scăzute ar sugera provenienţa mediilor dintr-o
populaţie unică (de nul). Decizia statistică cu privire la mărimea raportului şi, implicit, cu
privire la semnificaţia diferenţelor dintre mediile comparate, se face prin raportarea
valorii raportului la o distribuţie teoretică adecvată, alta decât distribuţia normală, aşa cum
vom vedea mai departe.
În continuare ne vom concentra asupra fundamentării modului de calcul pentru cei doi
termeni ai raportului. Calcularea exactă a dispersiei populaţiei de nul este imposibilă,
deoarece nu avem acces la toate valorile acesteia, dar poate fi estimată prin calcularea
mediei dispersiei grupurilor de cercetare. Valoarea astfel obţinută se numeşte „dispersia
intragrup” şi reprezintă estimarea împrăştierii valorilor măsurate la nivelul populaţiei de
nul.

La rândul ei, dispersia mediilor grupurilor de cercetare, calculată după metoda cunoscută
de calcul a dispersiei, formează ceea ce se numeşte „dispersia intergrup”. Valoarea
astfel obţinută evidenţiază cât de diferite (împrăştiate) sunt mediile eşantioanelor care
fac obiectul comparaţiei.

Raportul dintre „dispersia intergrup” şi „dispersia intragrup” se numeşte raport F şi ne


dă valoarea testului ANOVA unifactorial. Cu cât acest raport este mai mare, cu atât
împrăştierea mediilor grupurilor comparate este mai mare şi, implicit, diferenţa lor poate fi
una semnificativă, îndepărtată de o variaţie pur întâmplătoare.

Imaginile de mai jos dau o expresie grafică


acestui raţionament:

Figura 7.5. a reprezintă grafic ipoteza de nul:


presupunem că cele trei grupuri provin din aceeaşi
populaţie. Ca urmare, cele trei medii sunt egale
(µ1=µ2=µ3), iar distribuţiile sunt suprapuse.

200
Figura 7.6. reprezintă grafic ipoteza cercetării: cele trei grupuri sunt diferite, provenind din populaţii
distincte (µ1≠µ2≠µ3).

Dacă distanţa (împrăştierea) dintre mediile eşantioanelor depăşeşte o anumită valoare,


atunci putem concluziona că nu avem o singură populaţie (ipoteza de nul), ci mai multe,
mediile grupurilor provenind din populaţii cu medii distincte (cf. ipotezei cercetării).
Dacă, dimpotrivă, mediile eşantioanelor comparate sunt apropiate, atunci vom concluziona
că ele nu provin din populaţii diferite, ci dintr-una singură (cf. ipotezei de nul).

7.2.2. Fundamentarea procedurii de calcul ANOVA2

Esenţa procedurii de calcul pentru ANOVA se bazează pe o dublă estimare a dispersiei:

(a) Estimarea dispersiei populaţiei de nul pe baza mediei dispersiei


grupurilor (varianţa intragrup)
Atâta timp cât nu cunoaştem dispersia populaţiei (σ 2) din care ar putea proveni grupurile,
trebuie să o estimăm prin dispersiile celor trei grupuri (s 12, s22, s32).

Calculând media celor trei dispersii vom obţine o valoare care estimează dispersia pentru
cele trei grupuri luate împreună (indiferent de metoda de antrenament utilizată).
Această valoare se consideră că estimează dispersia populaţiei totale. Deoarece ea se
calculează pe baza dispersiilor în interiorul grupurilor, este desemnată în mod uzual prin
termenul de intragrup (sau, mai frecvent, prin forma engleză: within-group) şi se notează
cu s2intragrup, fiind calculată cu una dintre formulele următoare:

Atunci când volumele eşantioanelor comparate sunt egale (N 1=N2=N3):

(Formula 7.11)
Atunci când grupurile comparate sunt de volum inegal:

2
Metoda de calcul pe care o vom prezenta aici (bazată pe dispersie) nu este singura posibilă. În multe manuale de
statistică este utilizată metoda „sumei pătratelor”, care se bazează pe scorurile brute, fără utilizarea parametrilor
distribuţiei. Am preferat această metodă deoarece ni se pare mai intuitivă, pe de o parte, iar pe de altă parte, deoarece
poate fi aplicată şi în cazul în care nu avem distribuţia scorurilor brute, ci doar parametrii grupurilor comparate.
Fiecare metodă are avantaje şi dezavantaje, dar în esenţă, ele conduc la acelaşi rezultat.

201
(Formula 7.12)

(b) Estimarea dispersiei populaţiei de nul pe baza dispersiei mediilor


grupurilor (varianţa intergrup)
Mediile celor trei grupuri (eşantioane) sunt numere care pot fi analizate ca distribuţie în
sine, a căror dispersie (varianţă) poate fi calculată, fiind o estimare a împrăştierii valorilor
la nivelul populaţiei. Din cauză că se bazează pe mediile grupurilor, aceasta se mai numeşte
şi varianţă intergrupuri (between groups, în limba engleză).

(Formula 7.13)

Vom putea utiliza dispersia mediilor celor trei eşantioane pentru a estima dispersia
populaţiei totale (vezi exemplul de mai jos). Aceasta se numeşte estimarea varianţei
intergrupuri, notată cu s2intergrup.

Dacă înlocuim în expresia de mai sus expresia de calcul a dispersiei (formula 7.12),
obţinem:

(Formula 7.14)

unde mi este media performanţei din fiecare grup, M este media celor trei grupuri luate
împreună, iar ni este numărul subiecţilor din fiecare grup, iar dfintergrup se calculează ca
numărul grupurilor-1.

Ca urmare, pentru o situaţie cu trei grupuri, formula desfăşurată se scrie astfel:

202
(Formula 7.15)

unde: m1, m2, m3 sunt mediile celor trei grupuri, n 1, n2, n3, sunt volumele celor trei
eşantioane, iar celelalte valori sunt cele descrise pentru formula anterioară.

Pentru situaţia în care grupurile au un număr egal de subiecţi, formula 7.15 devine:

(Formula 7.16)

unde n este numărul subiecţilor dintr-un grup.

Ambele tipuri de estimări sunt estimări independente ale varianţei populaţiei de nul.
Însă, în timp ce varianţa intragrup o estimează în mod direct (media varianţelor),
varianţa intergrup o măsoară indirect (varianţa mediilor). Aceasta din urmă, varianţa
intergrup, reprezintă o estimare a varianţei populaţiei de nul numai dacă ipoteza de nul
este adevărată. Dacă ipoteza de nul este falsă, ea reflectă de fapt măsura în care valorile
variabilei independente (factorul) influenţează mediile variabilei dependente. Pe această
particularitate se bazează procedura analizei de varianţă. Raportul dintre cele două
estimări (s2intergrup/s2intragrup) va tinde să devină cu atât mai mare cu cât diferenţa dintre mediile
grupurilor (tradusă prin dispersia mediilor) devine mai mare decât dispersia din interiorul
grupurilor(tradusă prin media dispersiilor). Acest raport se numeşte ”raport Fisher”( după
numele lui Sir Ronald Aylmer Fisher 1890-1962, astronom de formaţie, interesat de
teoria erorilor, s-a remarcat prin contribuţiile sale în teoria statisticii căreia, din anul 1922,
i-a dat o nouă orientare, care a fundamentat acest tip de analiză). Raportul Fisher se

scrie astfel: F=s2intergrup/s2intragrup (Formula 7.17)

7.2.3. Interpretarea raportului F(Fisher)

Numitorul raportului F (dispersia intragrup) exprimă variabilitatea din interiorul grupurilor


supuse comparaţiei. Dacă analizăm sursele acestei variaţii, ea poate proveni din mai multe
surse: diferenţele individuale dintre subiecţi, erorile de măsurare ale variabilei

203
dependente, fluctuaţia condiţiilor în care au fost efectuate măsurările. Neputând defini cu
exactitate nici sursa şi nici contribuţia fiecăreia, dispersia intragrup exprimă aşa numita
„varianţă neexplicată”, definită generic şi ca „varianţa erorii”.

În conformitate cu ipoteza cercetării, grupurile de subiecţi ar trebui să aibă scoruri


diferite, fie pentru au fost supuse unui „tratament” diferit (în exemplul nostru prin cele
trei metode de antrenament), fie ca urmare a faptului că fac parte din populaţii diferite.
În acelaşi timp, subiecţii din fiecare grup în parte ar trebui să aibă scoruri similare.
Faptul că ele diferă totuşi, nu poate fi explicat prin efectul „tratamentului”, motiv pentru
care variaţia lor este definită drept o „varianţă a erorii”.

La rândul lui, variabilitatea numărătorului raportului F este rezultatul manipulării de către


cercetător (atunci când operăm în context experimental), sau este rezultatul unor
grupuri preexistente (atunci când efectuăm un studiu observaţional). Şi valoarea acestuia
este amplificată de varianţa erorii. Aceasta deoarece, chiar şi în cazul în care
„tratamentul” cu cele trei metode de antrenament ar fi total ineficient, şi toate populaţiile
ar avea medii identice, mediile grupurilor comparate ar diferi între ele, sub efectul unor
surse diverse („erori”). Ca urmare, avem două surse de variabilitate la numărător şi numai
una singură la numitor, fapt care poate fi sintetizat prin următoarea expresie:

Atunci când ipoteza de nul este adevărată, efectul „tratamentului” se apropie de zero, iar
raportul F este rezultatul varianţei erorii. Dacă cele două varianţe ale erorii ar fi identice,
F ar avea valoarea 1 dar, de fapt, cele două varianţe ale erorii pot avea valori diferite,
ceea ce conduce la fluctuaţii ale lui F în jurul lui 1.

Atunci când efectul tratamentului nu este zero (ipoteza de nul este falsă), ne aşteptăm
ca valoarea raportului F să fie mai mare decât 1. Însă pentru a respinge ipoteza de nul
valoarea lui F trebuie să fie nu doar mai mare decât 1, ci mai mare decât un prag critic
convenţional asumat (alfa), astfel încât probabilitatea ca un rezultat similar să decurgă
din întâmplare să fie mai mică sau cel mult egală cu alfa.

204
7.2.3.1. Distribuţia Fisher

Valorile raportului F (sau testul F) se distribuie într-un mod particular, numit distribuţia F
sau distribuţia Fisher. Ca şi distribuţia normală, distribuţia F este o familie de distribuţii,
având următoarele caracteristici:

asimetrie pozitivă (tendinţa valorilor de grupare spre partea stângă, cu valori mici);
poate lua valori oricât de mari;
valoarea minimă este 0, deoarece decurge din raportul a două dispersii, iar dispersiile
nu pot fi niciodată negative4.
forma distribuţiei variază în funcţie de o pereche de grade de libertate formată din
numărul grupelor (categoriile variabilei independente) şi numărul subiecţilor.

Figura 7.7. Distribuţia F pentru trei grupuri cu 30 de subiecţi în total

Imaginea de mai sus reprezintă curba F pentru 3 grupuri cu 30 de subiecţi în total.


Distribuţia Fisher are forme distincte în funcţie de numărul eşantioanelor comparate şi
volumul acestora.

7.2.3.2.Calcularea gradelor de libertate

Ca şi în cazul distribuţiei t, distribuţia F se prezintă sub o varietate de forme. Distribuţia F


rezultă dintr-un raport a două distribuţii diferite (s2intergpup şi s2intragrup), fiecare cu gradele ei de
libertate. Ca urmare, îşi schimbă forma, în acelaşi timp în funcţie de numărul grupurilor,
şi de numărul subiecţilor din fiecare grup. În concluzie, vom avea două grade de libertate,
unul pentru dispersia integrup şi altul pentru dispersia intragrup, calculate astfel:

dfintergrup=numărul grupurilor-1
dfintragrup=numărul cumulat al subiecţilor din toate grupurile-numărul grupurilor

205
În practică, se poate ajunge în situaţia ca dispersia intragrup să rezulte a fi mai mică
decât dispersia intergup şi, ca urmare, valoarea lui F să fie mai mică decât 0. Acest lucru
este determinat de inegalitatea severă a dispersiilor între grupurile analizate.

7.2.3.3. Exemplu de calcul

Problema cercetării:

Avem rezultatele la o şedinţă de tragere la ţintă pentru trei grupuri de câte 6 sportivi,
fiecare grup fiind antrenat cu o altă metodă, şi vrem să vedem dacă există o legătură
între nivelul performanţei şi metoda de antrenament.

Ipoteza cercetării:

„Performanţa sportivă este în legătură cu metoda de antrenament utilizată”.

Ipoteza de nul:

„Nu există o legătură între performanţa sportivă şi metoda de antrenament.”

Fixăm criteriile deciziei statistice: Nivelul α=0.05

Stabilim F critic:

-dfintergrup=3-1=2
-dfintragrup=18-3=15
Citim F critic (F(0.05, 2, 15) ) din tabelul F pentru α=0.05:

Fcritic=3.6823 (Anexa 3).

Notă privind utilizarea tabelei pentru distribuţiile F


Spre deosebire de tabelele distribuţiilor utilizate până acum, (z şi t), pentru interpretarea
lui F avem mai multe tabele, calculate fiecare pentru un anume nivel al lui α. Mai întâi
căutăm tabela pentru α dorit (să zicem, α=0.05). Apoi citim valoarea critică pentru F la
intersecţia dintre coloana care reprezintă numărul gradelor de libertate pentru numărul
grupurilor (dfB) cu linia care reprezintă numărul gradelor de libertate pentru volumul total
al subiecţilor (dfW). Dacă valoarea obţinută prin calcul este mai mare sau egală decât cea
tabelară, atunci putem lua decizia de respingere a ipotezei de nul.

206
O precizare importantă cu privire la ANOVA, ca test statistic, priveşte caracterul ei
„unilateral” (one-tailed). Într-adevăr, spre deosebire de celelalte teste studiate până
acum, ANOVA este interpretată într-o singură direcţie şi anume, dacă mediile grupurilor
diferă semnificativ între ele (au o variaţie mai mare decât cea normală pentru o distribuţie
aleatoare). Nu putem avea o valoare negativă pentru F şi, ca urmare, testul F este
întotdeauna un test unilateral.

Calculăm F pe baza datelor centralizate în tabelul următor:

Tabelul 7.2. Datele şi modul lor specific de prezentare ANOVA

Metoda de
„Metoda 1” „Metoda 2” „Metoda 3”
X1 X2 X3
(puncte) (X1-m1)2 (puncte) (X2-m2)2 (puncte) (X3-m3)2
10 2,79 3 8.00 4 1.36
9 0,45 6 0.02 5 4.70
10 2,79 6 0.02 2 0.68
7 1,77 5 0.68 3 0.02
8 0,11 8 4.70 2 0.02
6 5,43 7 1.36 1 3.34
ΣX 50 13.33 35 14.78 17 10.14
N 6 6 6
m(M) m1=8.33 m2=5.83 m3=2.83 M=(m1+m2+m3)/3=5.66
s2 2.66 2.96 2.02
(m-M) 2.67 0.17 -2.83
(m-M)2 7.12 0.02 8.00 𝚺(m-M)2=15.14 |

Distribuţia valorilor celor trei grupuri este ilustrată grafic în figura 7.8

207
Figura 7.8. Comparaţia distribuţiilor analizate

Recunoaştem în interiorul graficului parametrii fiecărui grup (m şi s 2) precum şi media


„mare” (M), a valorilor individuale din toate grupurile, luate împreună.

Având calculaţi parametrii celor trei grupuri, putem trece la calcularea raportului F. Mai
întâi calculăm numărătorul, adică dispersia mediilor celor trei grupuri. Dat fiind

faptul că nu cunoaştem dispersia populaţiei vom utiliza dispersia eşantioanelor, conform


formulei 7.16 pentru grupuri egale.

Prin înlocuire cu valorile calculate în tabelul de mai sus, obţinem:

Mai departe, calculăm numitorul raportului F (dispersia intragrup), prin înlocuirea valorilor
calculate pentru dispersiile din interiorul celor trei grupuri luate separat, în formula 3.16:

În acest caz dfintragrup=nr. grupurilor, pentru că N1=N2=N3. În final, calculăm raportul F:

208
Valoarea astfel obţinută o comparăm cu F critic găsit anterior în tabel. Constatăm că F
calculat (5.94), este mai mare decât F critic (3.6823).

Decizia statistică: respingem ipoteza de nul.

Decizia cercetării: acceptăm ipoteza cercetării.

Concluzia cercetării: „Nivelul performanţei prezintă o variaţie în legătură cu metoda de


antrenament utilizată”.

7.2.4. Mărimea efectului pentru testul F

La fel ca şi în cazul testelor statistice introduse anterior, valoarea testului F nu este


informativă în sine. Mărimea lui F indică doar decât de câte ori este cuprinsă dispersia
intragrup în dispersia intergrup. Pentru a decide dacă acest raport este „mare” sau „mic”
trebuie să calculăm un indice al mărimii efectului. În cazul analizei de varianţă sunt utilizaţi
în mod obişnuit doi indici de mărime a efectului: eta pătrat (η2) şi omega pătrat (ω2).
Spre deosebire de indicele d (Cohen), care este un indice al diferenţei, eta pătrat şi
omega pătrat sunt indici ai asocierii 6 (B. Cohen, 2001), similari cu coeficientul de
corelaţie, pe care îl vom analiza analiza în alt loc.

Fără a intra în amănunte, facem precizarea că indicii de mărime a efectului pot fi


transformaţi cu uşurinţă unii într-alţii, cu ajutorul unor formule de conversie.

Vom prezenta aici doar indicele eta pătrat, dat fiind faptul că este accesibil cu metoda
pe care am utilizat-o pentru calcularea lui F. Formula de calcul pentru η2 este următoarea:

(Formula 7.18)

În esenţă, indicele eta pătrat descrie procentul din varianţa (împrăştierea) variabilei
dependente care este explicat de varianţa variabilei independente.

209
Nu există o „grilă” unică de interpretare a indicelui eta pătrat dar, prin similitudine cu
coeficientul de corelaţie, putem prelua sugestiile unor autori diferiţi, ale căror opinii
sunt, în linii mari, convergente. Redăm aici, pentru comparaţie, două variante de
interpretare pentru eta pătrat:

Tabelul 7.3. Evaluarea mărimii efectului(Hopkins, 2000)

0.9-1 Aproape perfect, descrie relaţia dintre două


variabile
0.7-0.9 Foarte mare, foarte ridicat
0.5-0.7 Mare, ridicat, major
0.3-0.5 Moderat, mediu
0.1-0.3 Mic, minor
0.0-0.1 Foarte mic, neglijabil, nesubstanţial

Tabelul 7.4. Evaluarea mărimii efectului(Davis apud Kotrlik şi Williams, 2003)

0.70 – 1 Asociere foarte puternică


0.50– 0.69 Asociere substanţială
0.30– 0.49 Asociere moderată
0.10– 0.29 Asociere scăzută
0.01– 0.09 Asociere neglijabilă
Vom observa că, în ambele variante, pentru a fi „important” indicele eta pătrat trebuie
să atingă cel puţin valoare de 0.50, ceea ce înseamnă că 50% din varianţă variabilei
dependente este explicată de variabila independente.

Pentru datele exemplului nostru, indicele de mărime a efectului este:

La rândul lui, Cohen (1988) a dezvoltat un indice de mărime a efectului (f) pentru
ANOVA, care atenuează ceea ce se consideră a fi tendinţa de „supraestimare a mărimii
efectului” de către indicele eta pătrat:

210
(Formula 7.19)

Programele statistice oferă, de regulă, posibilitatea de a calcula ambii indici ai puterii


Pentru rezultatul din exemplul nostru:

În conformitate cu recomandările lui Cohen, valorile lui f se interpretează astfel: efect


mic=0.10; efect mediu=0.25; efect mare=0.40. Interpretarea mărimii efectului trebuie
făcută cu precauţie şi modestie (Runyon et. al, 1996). Un indice redus de mărime a
efectului indică, desigur, o slabă intensitate a relaţiei dintre variabila independentă şi
variabila dependentă. Cu toate acestea, uneori, chiar şi o relaţie slabă între variabile poate fi
importantă pentru cercetarea ştiinţifică din ştiinţele sociale şi umane. Comportamentul uman
este supus unor surse extrem de complexe de determinări, fapt care face aproape
imposibilă controlarea (eliminarea) unora dintre surse, pentru stabilirea exactă a efectului
uneia anume. Acest lucru face inevitabilă prezenţa unei anumite cantităţi de erori de
măsurare în toate cercetările psihologice. În aceste condiţii, uneori, chiar şi un „efect
mic” poate fi considerat un câştig important din punct de vedere ştiinţific, chiar dacă este
puţin relevant din punct de vedere practic. De exemplu, un rezultat semnificativ statistic,
dar cu un indice scăzut de mărime a efectului, poate constitui punctul de plecare al unei
noi cercetări, în care efectele colaterale ale unor variabile să fie mai bine controlate
(eliminarea erorii), ceea ce poate conduce la evidenţierea unei relaţii mai puternice între
variabilele studiate.

Dacă privim cei doi indici ai mărimii efectului calculaţi pentru exemplul dat, putem
aprecia că, în contextul datelor cercetării noastre, 44% din variaţia performanţei de
instruire este explicată de utilizarea metodelor de antrenament (ceea ce înseamnă,
implicit, că un procent de 56% provine din alte surse). În conformitate cu recomandările
de interpretare pentru eta pătrat, putem afirma că relaţia dintre metodele de antrenament
utilizate şi performanţă este „moderată” sau „medie”. În acelaşi timp, indicele f al lui
Cohen indică un nivel ridicat al mărimii efectului. Nu trebuie să privim aceste două
211
aprecieri ale mărimii efectului ca fiind contradictoirii, ci ca pe două perspective asupra
aceleiaşi realităţi.

7.2.5. Analiza „post-hoc”

Graficul de mai sus prezintă variaţia mediilor performanţei celor grupuri de sportivi. Aşa cum

se observă, nivelul performanţei are nivelul cel mai ridicat pentru prima metodă de
antrenament (8.33), şi din ce în ce mai reduse la următoarele două (5.83; 2.83).

Testul ANOVA ne oferă o imagine „globală” a variaţiei mediilor fără să ne spună nimic cu
privire la „sursa” de provenienţă acesteia, şi nici în ce măsură diferă mediile grupurilor
luate două cât două. În exemplul nostru valoarea obţinută pentru F ar putea decurge
doar prin „contribuţia” unui singur grup (de ex., cei antrenaţi cu metoda 1), celelalte grupuri
având o „contribuţie” minoră sau inexistentă. Cercetătorul poate fi însă interesat care
dintre grupuri diferă între ele, şi în ce sens.

Pentru a rezolva această problemă se efectuează aşa numitele comparaţii multiple, pe baza
unor teste statistice denumite „post-hoc”, pentru că, în mod normal, acestea se
calculează după aplicarea procedurii ANOVA. Printre cele mai frecvent utilizate sunt
testele: Scheffe, Tukey şi Bonferoni (desigur, se utilizează unul sau altul dintre ele, la
alegere). Nu vom intra în detalii teoretice şi de calcul cu privire la aceste teste. Fiecare
are avantajele şi dezavantajele sale. Important aici este să înţelegem că testele post-hoc se
interpretează în mod similar testului t pentru diferenţa mediilor pentru eşantioane
necorelate, calculate astfel încât să ia, atât cât se poate, măsuri de precauţie împotriva

212
excesului de eroare de tip I menţionat anterior. Este important de reţinut, de asemenea,
faptul că analiza post-hoc este practicată, de regulă, numai dacă a fost obţinut un rezultat
semnificativ pentru testul F. Aceasta înseamnă că analiza post-hoc nu poate fi utilizată
ca substitut pentru testul t efectuat în mod repetat. Ca urmare, în practică, analiza de
varianţă va cuprinde două faze: prima, în care se decide asupra semnificaţiei testului F, şi a
doua, în cazul că acest raport este semnificativ, în care se analizează comparativ
diferenţele dintre categoriile analizate, pe baza unui test post- hoc.

În ce priveşte calcularea testelor post-hoc menţionate mai sus, vom prezenta modul lor
de calcul în secţiunea dedicată programului SPSS.

7.2.6. Publicarea rezultatului testului F (ANOVA)

În raportul de publicare pentru ANOVA vor fi descrise grupurile (categoriile) comparate,


mediile lor, valoarea testului F cu numărul gradelor de libertate şi pragul de semnificaţie
al testului. La acestea se adaugă indicele de mărime a efectului. Într-o manieră narativă,
rezultatul obţinut pe exemplul de mai sus, poate fi prezentat astfel:

„A fost analizată performanţa în tragerea la ţintă a trei grupuri de sportivi, antrenaţi cu


metode diferite. Mediile performanţei pentru cele trei grupuri au fost 8.33, 5.83,
respectiv 2.83. Analiza de varianţă unifactorială a relevat o diferenţă semnificativă între
aceste medii, F (2, 15)=6; p≤0.05. Mărimea efectului apreciată cu indicele eta pătrat
indică un efect moderat (η2=0.44), în timp ce indicele f al lui Cohen indică un efect mare
(f=0.88)”.

Atunci când vom calcula ANOVA cu ajutorul unui program care ne va oferi şi comparaţiile
multiple între grupurile comparate (analiza post-hoc), la descrierea de mai sus vom
adăuga şi comparaţiile grupurilor, două câte două, care exprimă diferenţele directe dintre
grupurile supuse comparaţiei, explicând analitic sursele semnificaţiei raportului F global.

Cu toate acestea, există autori care consideră că nimic nu ne împiedică să calculăm


testele post-hoc chiar dacă testul F s-a finalizat cu admiterea ipotezei de nul.

213
7.2.8. Avantajele ANOVA

Utilizarea ANOVA pentru testarea ipotezelor în cazul unui număr mai mare de grupuri
(eşantioane) prezintă două avantaje. Primul, ţine de ceea ce am precizat deja, şi anume
faptul că eliminăm riscul cumulării unei cantităţi prea mari de eroare de tip I, prin
efectuarea repetată a testului t. Al doilea, rezultă din faptul că avem posibilitatea să
punem în evidenţă diferenţe semnificative între mediile mai multor grupuri, chiar şi atunci
când nici una dintre ele nu diferă semnificativ una de cealaltă (testul t).

Tabelul 7.5. Exemplu de date pentru calcularea comparativă a testului t şi ANOVA

Variabila independentă Variabila dependentă


1 9
1 5
1 7
2 14
2 15
2 10

Deşi, în mod normal, analiza de varianţă este utilizată doar în situaţia în care se doreşte
testarea diferenţei dintre mediile a mai mult de două grupuri independente, ea dă
rezultate echivalente şi în cazurile în care există numai două grupuri (singura diferenţă
fiind valoarea calculată a testului, nu şi nivelul lui p). Utilizarea testului t pentru testarea
diferenţei dintre două medii este, totuşi, o metodă mult mai directă, mai uşor de aplicat şi
de înţeles, decât analiza de varianţă. De exemplu, dacă luăm în considerare datele din
tabelul alăturat, în care avem o variabilă dependentă distribuită pe două valori ale unei
variabile independente, valoarea testului t este 3.13, iar valoarea testului F este 9.82
(ceea ce reprezintă pătratul valorii t). În acelaşi timp, rezultatul la ambele teste este
semnificativ pentru aceeaşi valoare a lui p (0.035).

7.2.9. Condiţii pentru utilizarea testului ANOVA

Utilizarea analizei de varianţă unifactoriale presupune îndeplinirea următoarelor condiţii:

-independenţa eşantioanelor (grupurilor supuse comparaţiei);


-normalitatea distribuţiei de eşantionare, în conformitate cu teorema limitei centrale;
214
-absenţa valorilor extreme (outliers);
-egalitatea varianţei grupurilor comparate (denumită „homoscedasticitate”).
Atunci când una sau mai multe dintre aceste condiţii nu sunt întrunite, se poate adopta
una dintre soluţiile următoare:

-renunţarea la ANOVA în favoarea unei prezentări descriptive (soluţie care ne lipseşte


de posibilitatea unei concluzii testate statistic);
-transformarea variabilei dependente astfel încât să dobândească proprietăţile
necesare (printre metodele uzuale, cităm aici doar logaritmarea sau extragerea
radicalului din toate valorile variabilei dependente);
-transformarea variabilei pe o altă scală de măsurare şi aplicarea altui test statistic
(de exemplu, prin transformarea pe o scală nominală, se poate aplica testul
neparametric chi-pătrat sau, prin transformarea pe o scală ordinală, se poate aplica
testul neparametric Kruskal-Wallis, ambele urmând a fi tratate mai departe).

7.2.10. Rezumat

1.Analiza de variantă (ANOVA) testează diferenţa dintre mediile a mai mult de


două medii obţinute pe eşantioane independente.
2.Semnificaţia diferenţei dintre medii se testează prin analiza variabilităţii lor.
3.ANOVA este necesară în cazul comparării a mai mult de două medii, deoarece
compararea acestora cu testul t , două câte două, este nepermisă, ca urmare a
acumulării excesive de eroare de tip I.
4. Testul ANOVA se calculează ca raport între varianţa intergrup (împrăştierea mediilor
grupurilor comparate) şi varianţă intragrup (împrăştierea valorilor luate împreună
ale grupurilor comparate). Acesta se numeşte raportul Fischer (F), care urmează
forma unei distribuţii cu originea în 0, asimetrică pozitiv şi asimptotică la axa Ox.
5. O valoare semnificativă a testului F ne îndreptăţeşte să considerăm că diferenţa
dintre mediile grupurilor comparate este suficient de mare pentru a nu fi
întâmplătoare. Această concluzie are un caracter global, care priveşte variaţia
tuturor mediilor, fără a ne spune ceva despre raporturile dintre medii una faţă de
alta.
6. Analiza „post-hoc" completează analiza de variantă, prin compararea mediilor
luate două câte două, cu teste speciale, care încearcă atenuarea efectului de
cumul al erorii de tip I.

215
7. Mărimea efectului pentru testul ANOVA se evaluează cu ajutorul a mai multor
indicatori, dintre care cei mai utilizaţi sunt eta - pătrat şi omega - pătrat.

7.2.11. Exerciţii

Efectul Stroop este un fenomen studiat în psihologia experimentală, care constă într-o
situaţie informaţională conflictuală. De exemplu, cuvântul „albastru” este tipărit cu litere
de culoare roşie, iar subiectul trebuie să răspundă indicând culoarea literelor.

Un cercetător efectuează următorul experiment cu privire la efectul Stroop:

1.Selectionează aleatoriu patru grupuri de subiecţi, fiecare grup fiind format din şase
subiecţi;
2.Subiecţilor din primul grup li se prezintă pătrate colorate şi li se cere să identifice
culoarea;
3.Celor din grupul 2 li se prezintă adjective scrise cu culori corespunzătoare („roşu” este
scris cu roşu);

4.Grupurilor 3 şi 4 li se prezintă combinaţii conflictuale între cuvinte şi culori, dar


subiecţii din grupul 3 trebuie să identifice cuvântul, în timp ce subiecţii din grupul patru
trebuie să identifice culoarea.
Variabila dependentă este timpul pentru răspuns corect, măsurat în zecimi de secundă.
Toţi subiecţii primesc 10 stimuli de acelaşi fel, fiind consemnat timpul mediu de răspuns.
Rezultatele sunt centralizate în tabelul următor:
Grup 1 Grup 2 Grup Grup 4
0.3 0.5 3 1.1 1.3
0.5 0.5 0.9 1.2
0.3 0.3 0.9 1.4
0.2 0.2 1.2 0.9
0.4 0.4 1.0 1.5
0.2 0.3 1.2 1.1

216
În raport cu datele experimentului de mai sus:

1. Enunţaţi ipoteza cercetării


2. Enunţaţi ipoteza de nul
3. Calculaţi testul F pentru alfa=0.05
4. Enunţaţi decizia statistică
5. Enunţaţi decizia cercetării
6. Calculaţi indicii de mărime a efectului eta pătrat şi f
7. Prezentaţi rezultatul cercetării în conformitatea cu recomandările de publicare
(Verificaţi răspunsurile corecte la secţiunea 14. Rezolvări şi explicaţii la
exerciţiile din volum, Capitolul 7, exerciţiile 7.2.11)

7.3. Testul t pentru diferenţa dintre mediile a două eşantioane dependente


Testele de comparaţie prezentate până aici (t pentru eşantioane independente şi ANOVA)
au vizat situaţii în care mediile comparate aparţineau unor grupuri compuse din subiecţi
diferiţi (motiv pentru care sunt denumite ca „independente”, sau „necorelate”). Din cauză
că acest model de cercetare presupune comparaţii între subiecţi, el se mai numeşte şi
model intersubiect (between subject design).

Un alt model uzual în cercetarea psihologică vizează comparaţia a două (sau mai multe)
valori măsurate pe aceiaşi subiecţi. Iată câteva ilustrări tipice:

Situaţia în care o anumită caracteristică psihologică se măsoară înaintea unei condiţii şi


apoi, după acţiunea acesteia. Exemple: (1) evaluarea nivelului depresiei înainte şi după
un program de psihoterapie; (2) evaluarea performanţei cognitive a unui lot de subiecţi,
înainte şi după efectuarea unui training psihologic; (3) evaluarea timpului de reacţie
înainte şi după ingerarea unei substanţe. Deoarece se bazează pe măsurări repetate ale
unei variabile pe aceiaşi subiecţi, acest model de cercetare este cunoscut ca „modelul
măsurărilor repetate” (repeated-measures design).
Situaţia în care cercetătorul utilizează două condiţii de investigare, dar plasează aceiaşi
subiecţi în ambele condiţii. De exemplu, într-un studiu asupra efectelor unui anumit tip
de stimulare, se pot măsura undele cerebrale, simultan în cele două emisfere cerebrale.

217
Fiind vorba despre măsurarea unor variabile care sunt evaluate concomitent, la aceiaşi
subiecţi, acesta este un model „intrasubiect” (within-subjects design).
Cazul în care natura situaţiei experimentale nu permite utilizarea aceloraşi subiecţi
pentru cele două măsurări, de exemplu, în contextul unei intervenţii terapeutice care
are un efect pe termen foarte lung. În acest caz este se poate găsi pentru fiecare
subiect corespunzător condiţiei iniţiale un subiect „similar”, corespunzător condiţiei finale,
constituind astfel „perechi de subiecţi” aparţinând fiecare unui grup distinct, între care se
poate face o comparaţie directă. Ca urmare, deşi diferiţi, vom trata cei doi subiecţi din
pereche ca şi cum ar fi aceeaşi persoană. Sau, într-un alt context, putem compara
subiecţi care sunt într-un anumit tip de relaţie, interesându-ne diferenţa dintre ei sub o
anumită caracteristică. De exemplu, ne poate interesa daca între nivelul de inteligenţă
dintre băieţii şi fetele care formează cupluri de prieteni există o anumită diferenţă. În
acest caz, deşi avem două eşantioane distincte, fiecărui subiect din eşantionul de băieţi îi
corespunde un subiect din eşantionul de fete, constituirea celor două eşantioane făcându-
se pe baza relaţiei de prietenie dintre ei. În aceeaşi categorie se află comparaţiile între
perechi de gemeni, sau cele dintre soţi. În astfel de cazuri, avem de a face cu aşa
numitul model al ”eşantioanelor perechi” (matched pairs design).
Indiferent de tipul lor, toate modele prezentate mai sus au un obiectiv similar, acela de
a pune în evidenţă în ce măsură o anumită condiţie ( variabila independentă) corespunde
unei modificări la nivelul unei caracteristici psihologice oarecare (variabila dependentă).
Vom observa că, în toate exemplele evocate, variabila independentă este una de tip
nominal, dihotomic (înainte/după; semestru/sesiune; grup de cercetare/grup de control;
băiat/fată; soţ/soţie, etc.), în timp ce variabila dependentă se măsoară pe o scală
cantitativă, de interval sau de raport. De asemenea, trebuie să consemnăm faptul că în
ambele situaţii se utilizează măsurători de acelaşi fel, cu acelaşi instrument, care
produce valori exprimate în aceeaşi unitate de măsură, între care se poate efectua un
calcul direct al diferenţei.

Pentru descrierea testului statistic adecvat acestor cazuri să ne imaginăm următoarea


situaţie generică de cercetare: un grup de pacienţi cu tulburări de tip depresiv sunt

218
incluşi într-un program de psihoterapie, având drept scop diminuarea nivelului depresiei.
Înainte de începerea programului a fost aplicată o scală de evaluare a depresiei. Acelaşi
instrument a fost aplicat din nou, după parcurgerea programului de terapie.

Aici s-ar putea pune întrebarea de ce nu considerăm valorile rezultate din cele două
măsurători ca fiind independente, urmând să utilizăm testul t pentru acest tip de date?
Există mai multe argumente în favoarea respingerii acestei variante simplificatoare:

1.Utilizarea valorilor perechi oferă informaţii mai bogate despre situaţia de cercetare. În
modele de cercetare de tip înainte/după ea capătă chiar valenţe de experiment.
2.Testul t pentru eşantioane independente surprinde variabilitatea dintre subiecţi, în
timp ce testul t pentru eşantioane dependente (măsurări repetate) se bazează pe
variabilitatea „intra-subiect”, aceea care provine din diferenţa valorilor de la o măsurare
la alta, la nivelul fiecărui subiect în parte.
3.Dacă există o diferenţă reală între subiecţi, atunci testul diferenţei dintre valorile perechi
are mai multe şanse să o surprindă decât cel pentru valori independente (puterea unui
model de cercetare intra-subiect este mai mare decât în modelul inter-subiecţi).
Revenind la tema de cercetare pe care am enunţat-o mai sus, deşi avem aceiaşi subiecţi,
şi în primul şi în al doilea caz, ne vom raporta la aceasta situaţie ca şi cum ar fi două
eşantioane. Unul, cel al subiecţilor care „nu au urmat încă” un program de terapie, iar
celalalt, al subiecţilor care „au urmat” un astfel de program. Datorită faptului că cele două
eşantioane sunt formate din aceiaşi subiecţi, ele se numesc „dependente” sau „corelate”.

În acest tip de studiu, obiectivul testului statistic este acela de a pune în evidenţă
semnificaţia diferenţei dintre mediile depresiei în cele două momente. Cea mai simplă
procedură de calcul este metoda diferenţei directe(Cohen,1994). Pentru aceasta,
calculăm diferenţele fiecărei perechi de valori din cele două distribuţii (X2-X1), obţinând
astfel o distribuţie a diferenţelor, pe care o vom nota cu D.

7.3.1. Fundamentare teoretică

Dacă programul de terapie ar fi total ineficient, trebuie să presupunem că diferenţele


pozitive le-ar echilibra pe cele negative ceea ce, la un număr mare de eşantioane

219
ipotetice (formate din acelaşi număr de subiecţi), am obţine o medie a diferenţelor egală
cu 0. Ca urmare, ipoteza statistică presupune că media diferenţelor la nivelul populaţiei de
nul este 0. Aceasta înseamnă că testul t trebuie să demonstreze că media diferenţelor
măsurate pe eşantionul cercetării este suficient de departe de 0, pentru a respinge
ipoteza de nul şi a accepta ipoteza cercetării. De aici rezultă că putem reduce metoda de
calcul la formula testului t pentru un singur eşantion, pornind de la formula cunoscută a
testului t,

unde mD este media distribuţiei D (a diferenţelor dintre cele două măsurări), µ D este
media populaţiei de nul a diferenţelor dintre eşantioane de acelaşi fel, iar seD este eroarea
standard a distribuţiei D (împrăştierea distribuţiei D).

Numitorul, eroarea standard a diferenţei dintre medii, se calculează cu formula:


(Formula 7.20)

Ca urmare, formula pentru testul t al diferenţei dintre medii dependente este:

(Formula 7.21)

7.3.2. Exemplu analitic de calcul


Problema cercetării: Se poate obţine o reducere a reacţiilor anxioase prin aplicarea unei
anumite proceduri de psihoterapie?

Ipoteza cercetării (H1):

-Pentru test bilateral → Programul de psihoterapie are un efect asupra depresiei.

220
-Pentru test unilateral → Programul de psihoterapie reduce intensitatea reacţiilor de tip
depresiv.

Ipoteza de nul (H0):

-Pentru test bilateral → Programul de psihoterapie nu are nici un efect asupra depresiei.

-Pentru test unilateral → Programul de psihoterapie nu reduce nivelul depresiei.

Populaţiile cercetării:

-Populaţia 1 → Subiecţii cu stare de depresie ridicată care nu au urmat un program de


terapie.

-Populaţia 2 → Subiecţii cu stare de depresie ridicată care au urmat un program de


terapie.

Ipoteza cercetării afirmă că ele sunt diferite (m1-m2≠0), în timp ce ipoteza de nul afirmă
că ele sunt identice (m1-m2=0).

Eşantion: Un singur grup de subiecţi cu probleme depresive (N=8) al cărui nivel de


depresivitate este evaluat înainte şi după programul de terapie.

Criteriile deciziei statistice


Alegem modul de testare a ipotezei-bilateral.

Fixăm, convenţional, nivelul depresiei α =0.01. Să spunem că preferăm acest nivel deoarece
costurile de implementare a programului sunt destul de mari, iar pacienţii trebuie
convinşi că merită timpul şi banii3.

Căutăm t critic pentru α =0.01 în tabelul distribuţiei t pentru 7 grade de libertate (N-1).
Tabelul ne dă valorile pentru un test unilateral (în dreapta curbei). Pentru testul bilateral
trebuie mai întâi să înjumătăţim valoarea aleasă pentru α (0.01/2=0.005).

Datele cercetării:

3
Am optat pentru alfa=0.01 doar pentru a varia exemplele de calcul, dar in practică se utilizează
în mod obişnuit alfa=0.05.
221
Înainte de După D (X2-X1) D-mD (D-mD) 2
program program
(X1) (X2)
6 6 0.00 0.50 0.25
8 7 -1.00 -0.50 0.25
10 11 1.00 1.50 2.25
9 8 -1.00 -0.50 0.25
5 5 0.00 0.50 0.25
6 5 -1.00 -0.50 0.25
11 10 -1.00 -0.50 0.25
5 4 -1.00 -0.50 0.25
ΣX 60 56 -4 Σ(D-mD)2=4
N 8 8 8
∑x 7.50 7.00 mD=-0,5
m=
N

SD= 4

( D−mD ) 2
S2=
√ 7
=0,75


În continuare, căutăm valoare aflată la intersecţia coloanei gradelor de libertate (7) cu
N−1
coloana lui α =0.005 şi citim t critic= -3.49. Îi atribuim semnul minus, deoarece ne
aşteptăm ca nivelul depresiei să scadă după aplicarea programului de terapie.

Notă: În principiu, sub aspectul procedurii statistice, nu prezintă nici o importanţă dacă
utilizăm diferenţa X1-X2 sau X2-X1. Ordinea depinde de ceea ce doreşte să scoată în
evidenţă cercetătorul. Important este ca, în final, să interpreteze corect rezultatul obţinut, în
funcţie de semnul diferenţei şi semnificaţia concretă a acestuia.

Introducem valorile în formula 7.21 şi obţinem:

222
Raţionamentul decizional
1.Comparăm t calculat cu t critic pentru α =0.01 bilateral: -2,08 < -3.49
2.Decizia statistica: „acceptăm ipoteza de nul”. Probabilitatea de a se obţine un nivel al
depresiei mai redus doar ca urmare a jocului hazardului, este mai mare decât nivelul
alfa pe care ni l-am impus drept criteriu de decizie (adică mai mic de 1%).
3.Decizia cercetării: „datele nu sprijină ipoteza cercetării”. Ca urmare, nu putem accepta
că efectul obţinut se datorează programului de terapie. Programul de terapie nu reduce
în mod semnificativ nivelul depresivităţii.

7.3.3. Mărimea efectului

Indicele de mărime a efectului (d - Cohen) pentru diferenţa dintre medii dependente se


calculează cu formula lui Cohen:

(Formula 7.22)

Interpretarea indicelui d se face în conformitate cu recomandările lui Cohen(1988),


astfel: 0.20, efect mic; 0.50, efect mediu, 0.80, efect mare. Pentru exemplul nostru,
indicele de mărime a efectului este:

Valoarea obţinută indică o diferenţă „medie-mare” sau „relativ importantă” între mediile
comparate (semnul lui d nu are relevanţă). Aşa cum se vede, este posibil să obţinem un
indice al mărimii efectului „mediu spre ridicat” în condiţiile unui rezultat nesemnificativ
statistic. Acest lucru trebuie să ne atragă odată în plus atenţia asupra faptului că cele
două proceduri (testul statistic şi mărimea efectului) vizează aspecte diferite. Pentru
exemplul nostru, vom concluziona că efectul terapiei este relativ important, dar nu are o
putere suficientă pentru a atinge pragul de semnificaţie pe un lot de numai 8 subiecţi. Este

223
mai mult decât probabil că pe un eşantion mai mare rezultatul ar atinge şi pragul de
semnificaţie statistică.

7.3.4. Limitele de încredere pentru diferenţa dintre medii

La fel ca şi în cazul testului t pentru eşantioane independente, se pune problema


generalizării rezultatului la nivelul populaţiei, cu alte cuvinte, care este intervalul în care
ne putem aştepta să se afle diferenţa dintre medii, pentru variabilele studiate. Pentru o
estimare cu o precizie de 99%, conform cu nivelul alfa ales, limitele critice pentru
diferenţa dintre medii sunt cele care corespund valorilor lui p=0,005, de o parte şi de
alta a curbei t (±3.4998). Formula de calcul pentru intervalul de încredere derivă, şi în
acest caz, din formula 7.21:

t= (mD – μD)/seD

de unde rezultă formula pentru calculul limitelor de încredere ale mediei diferenţei:

µD=mD±tcrit*seD (formula 7.23)

În condiţiile studiului nostru, decizia statistică de acceptare a ipotezei de nul a infirmat


ipoteza cercetării dar analiza intervalului de încredere poate ajuta la înţelegerea mai
bună a situaţiei. Înlocuind valorile corespunzătoare studiului nostru, obţinem
următoarele limite de încredere:

limita inferioară: µD = -0.5-(-3.4998)*0.26= +0.40

limita superioară µD = -0.5+(-3.4998)*0.26=-1.4

Rezultatul arată că media diferenţei la nivelul populaţiei se află, cu o probabilitate de


0.99 (sau 99%), între o limită inferioară=+0.40 şi o alta superioară-1.40. În acest caz,
„inferior” se referă la o valoare plasată în jumătatea stângă a curbei t, unde valori
inferioare sunt cele care se apropie de 0, care este media diferenţei de nul. Aşa cum se
constată, intervalul de încredere cuprinde şi valoarea 0, care exprimă ipoteza de nul
(diferenţă nulă). Acest lucru este concordant cu decizia statistică, în urma căreia am
admis ipoteza de nul şi am respins ipoteza cercetării. O privire mai atentă asupra datelor
ar putea să îi arate cercetătorului că unul dintre subiecţi a obţinut un scor mai mare al

224
anxietăţii după terapie decât înainte de terapie, fapt care este nefiresc şi ar trebui
analizat. Acest caz se pare ca a fost decisiv în neatingerea pragului de semnificaţie. O
reluare a procesului de diagnostic psihologic cu subiectul în cauză poate, eventual,
conduce la concluzia că problemele lui sunt de altă natură (de ex., suferă de anxietate şi
nu de depresie) şi că, în cazul său, terapia respectivă nu are nici un efect. Refacerea
calculelor cu scoaterea din eşantionul de cercetare a acestui subiect (numai dacă acest
lucru este bine motivat), va conduce, cu siguranţă, la un interval mai restrâns de
încredere pentru diferenţa dintre medii, ceea ce va însemna o precizie de estimare mai
ridicată şi, implicit, poate, la atingerea pragului de semnificaţie.

Nu trebuie să omitem, de asemenea, faptul că în exemplul nostru este vorba de un


eşantion foarte mic, iar eşantioanele mici conduc la valori ridicate ale erorii standard a
mediei şi, prin aceasta, la intervale de încredere largi. În astfel de situaţii riscul erorii de
tip II (imposibilitatea de a pune în evidenţă diferenţe reale, rezultat fals negativ) este
mai mare. Dar, atunci când obţinem rezultate semnificative pe eşantioane mici, ele pot
prezenta un nivel de încredere cu atât mai mare. În acelaşi timp, eşantioanele mici sunt
instabile (în exemplul nostru, o singură diferenţă pozitivă poate schimba rezultatul
cercetării), fapt care impune cel puţin replicarea cercetării, pentru mai multă siguranţă.

7.3.5. Publicarea rezultatului

La publicare se vor menţiona: volumul eşantionului, mediile variabilei dependente în


raport cu valorile variabilei independente, valoarea testului t, pragul de semnificaţie,
tipul de test (unilateral sau bilateral), mărimea efectului şi limitele de încredere ale
diferenţei. Având în vedere faptul că, uzual, testele statistice se efectuează bilateral, se
poate menţiona numai cazul în care testul este unilateral, eventual cu explicarea
motivului pentru care a fost preferată această soluţie.

Pentru exemplul de mai sus, o prezentare narativă a rezultatului ar putea arăta astfel:

„Un eşantion de 8 subiecţi cu probleme de depresie au participat la un program de


terapie antidepresivă. Nivelul depresiei (măsurat cu o scală specifică) a fost evaluat
înainte şi după programul de terapie. S-a constatat o reducere a nivelului depresiei de la

225
o medie de 7.50 la 7.0, după aplicarea terapiei. Diferenţa nu a atins pragul semnificaţiei
statistice t(7)=-2,08, p<0.01, pentru α=0.01 bilateral, cu limitele de încredere (99%)
cuprinse între +0.40 şi -1.40. Indicele d (Cohen) al mărimii efectului (0.66) arată totuşi
existenţa unei diferenţe relativ importante între mediile celor două momente. Absenţa
semnificaţiei statistice se datorează, foarte probabil, volumului foarte redus al
eşantionului şi existenţei unui scor extrem al unuia dintre subiecţi. În concluzie,
rezultatele încurajează utilizarea în continuare a metodei terapeutice şi reevaluarea
eficienţei ei pe un eşantion mai mare.”

7.3.6. Rezumat

1.Testul t pentru diferenţa mediilor a două eşantioane dependente vizează situaţiile


în care aceiaşi subiecţi au fost evaluaţi cu acelaşi instrument în situaţii diferite.
2.Variabila independentă este reprezentată de condiţia în care are loc măsurarea, iar
variabila dependentă este trăsătura care face obiectul măsurării, fiind exprimată pe
scală cantitativă.
3.Modul de interpretare a testului, calcularea intervalului de încredere şi al mărimii
efectului sunt similare testului t pentru eşantioane independente.
7.3.7. Exerciţii
I. Ne propunem să scoatem în evidenţă efectul stresului temporal (criza de timp) asupra
performanţei de operare numerică. În acest scop, selectăm un eşantion de 8 subiecţi
cărora le cerem să efectueze un test de calcule aritmetice în două condiţii experimentale
diferite: prima, în condiţii de timp nelimitat, cu recomandarea de a lucra cât mai corect; a
doua, în condiţii de timp limitat, cu condiţia de a lucra cât mai repede şi mai corect în
acelaşi timp. Rezultatele celor două reprize sunt cele din tabelul următor:
N Fără criză de timp Cu criză de timp
1 67 65
2 79 73
3 83 70
4 80 85
5 99 93
6 95 88
7 80 72
8 100 69

226
Să se rezolve următoarele sarcini:

1.Formularea ipotezei cercetării şi a ipotezei de nul


2.Stabilirea valorii t critic pentru α=0,05 bilateral
3.Calcularea testului t pentru eşantioane dependente
4.Decizia statistică
5.Decizia cercetării
6.Indicele de mărime a efectului
7.Limitele de încredere pentru diferenţa dintre medii
8.Formularea concluziei în formatul recomandat
(Verificaţi răspunsurile corecte la secţiunea 14. Rezolvări şi explicaţii la
exerciţiile din volum, Capitolul 7, exerciţiile 7.3.7)

7.4. Coeficientul de corelaţie liniară Pearson (r)


Am utilizat testul t pentru eşantioane dependente pentru a evalua semnificaţia diferenţei
dintre două medii, rezultate în urma măsurării unei variabile cantitative, pe un eşantion
de subiecţi (sau de subiecţi „pereche”) aflat în două situaţii (condiţii) diferite. Cele două
condiţii reprezintă valorile variabilei independente, iar cercetătorul este interesat să afle
dacă există o diferenţă semnificativă între mediile rezultate în fiecare dintre cele două
condiţii. În concluzie, problema cercetării într-o situaţie de acest gen este axată pe ideea
de „diferenţă între perechile de valori”.

În practica cercetării există fie situaţii în care nu suntem interesaţi de „diferenţa dintre
două medii” rezultate pe acelaşi grup de subiecţi, ci de „gradul de asociere dintre două
variabile măsurate pe acelaşi grup de subiecţi. fiecare variabilă reprezentând altceva. În
acest caz cercetătorul doreşte să afle dacă există o legătură între variaţia valorilor unei
variabile în raport cu cealaltă variabilă. Pentru a înţelege mai bine diferenţa dintre cele
abordări statistice, să ne uităm puţin în tabelele de date de mai jos:
Tabelul 7.6. În cazul diferenţei dintre medii, valorile celor 2 distribuţii(v1 şi v2) pentru un eşantion de 5
subiecţi sunt ”condensate” prin mediile lor(7 şi 5), a căror diferenţă(7-5=2) este testată din punct de vedere
a semnificaţiei statistice

227
V V
1 2
Sub 1 7 4
Sub 2 9 5
Sub 3 8 6
Sub 4 6 7
Sub 5 5 3
Medi 7 5
a

Tabelul 7.7. În cazul corelaţiei dintre valorile celor 2 distribuţii(v1 şi v2) se urmăreşte punerea în evidenţă a
modului în care se asociază valorile-pereche, adică în ce măsură există o legătură între fiecare valoare şi
perechea ei

↔ V1 ↔V
↔ 2
Sub 1 7↔ ↔4
Sub 2 9↔ ↔5
Sub 3 8↔ ↔6
Sub 4 6↔ ↔7
Sub 5 5↔ ↔3

Într-o relaţie de asociere ambele variabile sunt dependente una de alta, iar valorile lor
pot fi exprimate, fie cu aceeaşi unitate de măsură, fie cu unităţi de măsură diferite. Iată
câteva exemple de acest gen:

-există o legătură între numărul atitudinilor pozitive pe care le manifestă oamenii şi


numărul atitudinilor pozitive pe care le primesc din partea celor din jur?
-există o legătură între timpul de reacţie şi nivelul extraversiunii, ca trăsătură de
personalitate?
-există o legătură între greutate şi înălţime?
-există o relaţie între frecvenţa pulsului şoferilor şi viteza cu care conduc maşina?

228
-există o relaţie între numărul orelor de studiu la statistică şi punctajul obţinut la
evaluări?
În toate aceste situaţii avem câte două variabile, ambele fiind dependente una în raport
cu alta, în sensul că este vizată existenţa unei concordanţe în variaţia reciprocă a
valorilor celor două variabile, iar testul statistic utilizat se bazează pe calcularea unui
„coeficient de corelaţie”.
Înainte de a fi un concept statistic termenul de corelaţie este un cuvânt uzual în limbajul
cotidian. În esenţă, el exprimă o legătură între anumite aspecte ale realităţii, aşa cum
este ea reflectată în planul observaţiei directe. De exemplu, o parcare plină cu maşini ne
sugerează că magazinul alăturat este plin cu cumpărători, între numărul de maşini din
parcare şi numărul de cumpărători existând o anumită „corelare”. La nivel statistic,
corelaţia exprimă o legătură cantitativă sistematică între valorile a două variabile
perechi, măsurate pe subiecţi aparţinând aceluiaşi eşantion de cercetare. Coeficientul de
corelaţie este doar una dintre procedurile statistice prin care se pune în evidenţă
„corelarea” dintre variabile. În termeni generali, chiar şi testele t, prezentate anterior,
pun în evidenţă (co)relaţia (legătura) dintre o variabilă dependentă şi valorile unei
variabile independente.

7.4.1. Corelaţia liniară

Să presupunem că un grup de studenţi au efectuat un test de inteligenţă bazat pe


raţionament abstract/figurativ şi un altul, bazat pe raţionament verbal/logic. Dacă
studenţii care obţin valori mari la primul test tind să obţină valori mari şi la cel de-al
doilea, avem ceea ce se numeşte o corelaţie pozitivă. Dacă, dimpotrivă, studenţii care
obţin valori mari la unul dintre teste tind să obţină valori mici la cel de-al doilea, atunci
ne aflăm în faţa unei corelaţii negative. Este evident că există şi posibilitatea ca valorile
celor două variabile să evolueze absolut independent unele de celelalte, ceea ce indică
absenţa oricărei corelaţii.

Precursorul teoretic al coeficientului de corelaţie este coeficientul de covarianţă. El se


defineşte ca sumă a produselor dintre valorile celor două variabile, raportată la numărul
perechilor de valori din cele două distribuţii:

229
(Formula 7.24)

unde x şi y sunt valorile perechi ale celor două variabile, iar N este volumul eşantionului.

Problema pe care o ridică coeficientul de covarianţă este legată de unităţile de măsură.


Formula poate fi aplicată numai dacă valorile perechi sunt exprimate în aceeaşi unitate
de măsură, pentru ca produsul lor să aibă sens. Evident, nu am putea-o utiliza pentru a
calcula coeficientul de covariaţie între înălţime şi greutate, de exemplu, deoarece este
dificil să înţelegem rezultatului unui produs dintre unităţi de măsură diferite (greutate şi
lungime). Soluţia problemei constă în transformarea valorilor celor două variabile în
scoruri standard, ceea ce produce un rezultat care nu mai are legătură cu unitatea de
măsură. Intensitatea legăturii dintre valorile a două variabile se exprimă prin coeficientul
de corelaţie liniară, notat cu simbolul r. Introdus de Karl Pearson 1, acest coeficient mai
este cunoscut şi sub numele de coeficientul de corelaţie Pearson, sau al „moment-
produsului”, după expresia uneia din formulele de calcul.

Formula de definiţie a coeficientului de corelaţie este:

(Formula 7.25)

(Formula 7.26)

unde zx respectiv zy sunt scorurile z ale variabilelor x şi y, iar n este volumul


eşantionului. Situaţia de maximă corelaţie posibilă între cele două distribuţii este atunci
când valorile lor sunt identice. Dacă ar fi aşa, atunci valorile z x sunt egale cu valorile zy,
iar formula 7.25 ar putea fi scrisă ca în formula 7.26.

230
În continuare, dacă înlocuim în formula de mai sus expresia de calcul a lui z şi facem
toate simplificările posibile, ajungem în final la formula deja cunoscută a dispersiei. În
consecinţă, din faptul că dispersia unei distribuţii z este întotdeauna egală cu +1, rezultă
că valoarea maximă pe care o poate atinge coeficientul de corelaţie, în cazul unei
corelaţii pozitive perfecte, este r=+1. (1Karl Pearson (1857-1936, matematician, filozof
al ştiinţei, biometrician şi statistician englez).
7.4.2. Reprezentarea grafică a corelaţiei

Plasarea valorilor corelate pe un grafic produce o imagine intuitivă a relaţiei dintre valori.
Acest tip de grafic se numeşte scatterplot(denumiri echivalente: scattergramă şi
scattergraf).

Figura 7.9. Graficul scatterplot pentru 3 coeficienţi de corelaţie pozitivi

În cazul unei corelaţii pozitive valorilor mari ale unei variabile tind să le corespundă
valori mari le celeilalte variabile. La limită, pentru o corelaţie pozitivă perfectă (r=+1)
punctele de intersecţie ale perechilor de valori se plasează pe o linie dreaptă, dinspre
stânga jos spre dreapta sus, la un unghi de 45 de grade între cele două axe. Cu cât
corelaţia este mai mică, cu atât norul de puncte este mai larg, dar forma elipsei indică
relaţia pozitivă dintre cele două variabile.

În imaginea de mai jos avem reprezentări scatterplot caracteristice pentru trei corelaţii
liniare negative.

231
Figura 7.10. Graficul scatterplot pentru 3 coeficienţi de corelaţie negativi
În cazul corelaţiei negative, tendinţa este aceea ca valorilor mari ale unei variabile să le
corespundă valori mici ale celeilalte variabile. Ca urmare, atât linia corelaţiei negative
perfecte (r=-1), cât şi diagonala mare a elipsei norului de puncte al unei corelaţii negative
imperfecte, se orientează din stânga sus spre dreapta jos a sistemului de coordonate.

În fine, atunci când corelaţia dintre cele două variabile este inexistentă, norul punctelor
de intersecţie are o formă circulară, care nu conturează nici o tendinţă (r=0).

Figura 7.11. graficul unei corelaţii liniare r = 0

7.4.3. Calcularea coeficientului de corelaţie liniară Pearson

De obicei, pentru a uşura calcularea manuală a coeficientului de corelaţie, mai ales atunci
când avem date numeroase, sunt utilizate formule derivate din formula de definiţie
(formula 7.25), prin înlocuirea expresiilor pentru scorul z. Se deduce astfel o formulă

232
care, deşi apare mai complicată, este mai uşor de pus în practică, deoarece se bazează
pe valori care se obţin prin calcule mai simple:

(Formula 7.27)

unde:

-X şi Y reprezintă valorile individuale ale distribuţiilor X şi Y


-mx şi my reprezintă mediile distribuţiilor X şi Y
-sx şi sy reprezintă abaterile standard ale distribuţiilor X şi Y
-N este volumul eşantionului
Formula 7,27 este doar una dintre variantele utilizate. Ea poate fi utilizată pentru
calcule, la fel de bine ca şi formula 7.25, obţinându-se rezultate identice. În general,
pentru păstrarea acurateţei rezultatului se recomandă păstrarea primelor patru zecimale
ale fiecărei operaţii de calcul dar, pentru exemplele didactice, unde rezultatul nu are o
finalitate reală, se poate lucra şi cu primele două zecimale. Oricum, în final, valoarea
coeficientului r se raportează în mod obişnuit cu doar două zecimale.

7.4.4. Criteriile deciziei statistice

La fel ca în cazul celorlalte teste statistice, şi coeficientul de corelaţie Pearson se


raportează la o distribuţie teoretică, care este una derivată din distribuţia t. Indiferent de
cât de mare este r calculat, nu putem avea încredere în acesta atâta timp cât nu ştim în
ce măsură este diferit de un r care ar rezulta prin jocul întâmplării. Pentru aceasta se
utilizează distribuţia t şi o formulă care derivă din testul t.

Pentru uşurarea evaluării semnificaţiei, a fost creat un tabel special cu praguri de


semnificaţie ale coeficientului de corelaţie r care poate fi folosit fără a mai fi necesară
utilizarea formulei (vezi tabelul semnificaţiilor coeficientului de corelaţie din anexă).

233
Practic, se caută în tabel care este nivelul lui r pentru numărul gradelor de libertate
(df=N-2), şi un prag α ales în prealabil. Dacă valoarea calculată este cel puţin egală sau
mai mare decât valoarea tabelară (critică) a lui r, atunci ipoteza de nul se respinge,
coeficientul de corelaţie fiind considerat semnificativ.

Pentru exemplul nostru, pentru test unilateral, α=0.05 şi df=6 (8-2), citirea tabelului se
face ca în figura alăturată.

Tabelul 7.8. Extras din tabelul valorilor testului r (Anexa 4)

În condiţiile precizate pentru cercetarea propusă ca exemplu, valoarea tabelară (critică) a


lui r este 0.622. Dacă am fi preferat un test bilateral, pentru acelaşi nivel al lui alfa,
valoarea r critic ar fi fost 0.707.

7.4.5. Exemplu de calcul

Vom lua în considerare cazul aplicării celor două teste de raţionament de tip diferit. În
acest caz, ipoteza cercetării se exprimă în maniera: „există o legătură (corelaţie) între
cele două tipuri de raţionament, cei care obţin rezultate bune la unul din teste, vor tinde
sa obţină rezultate bune şi la celalalt”.

Tabelul 7.9. Exemplu de calcul pentru testul de corelaţie Pearson

Scorul la testul de Scorul la testul de Produsul


calcul aritmetic raţionament verbal abaterilor de
la medie

X (x-mx) (x-mx)2 Y (y-my) (y-my)2 (x-mx)* (y-my)

234
25 -4.63 21.44 28 -1.88 3.53 8.70
32 2.37 5.62 27 -2.88 8.29 -6.83
40 10.37 107.54 41 11.12 123.65 115.31
29 -0.63 0.40 34 4.12 16.97 -
31 1.37 1.88 25 -4.88 23.81 -6.69
16 -13.63 185.78 19 -10.88 118.37 148.29
28 -1.63 2.66 26 -3.88 15.05 6.32
36 6.37 40.58 39 9.12 83.17 58.09
𝛴= 237 𝚺=365.88 𝛴= 239 𝛴 =392.88 𝛴=320,63
mX= 29.63 mY = 29.88
sX = 7.23 sY = 7.49
Desigur, ipoteza poate fi formulată şi corespunzător unei corelaţii negative, dacă avem
motive să presupunem acest lucru.

Pentru calcularea coeficientului de corelaţie am ales, de data aceasta, formula 3.30, prin
care, înlocuind valorile, obţinem valoarea coeficientului de corelaţie:

Graficul scatterplot pentru datele din exemplu este corespunzător unei asocieri
pozitive între cele două variabile, norul de puncte urmând o elipsă cu diagonala mare pe
direcţia stânga jos-dreapta sus:

Figura 7.12. Graficul scatterplot pentru datele din exemplul de calcul

Decizia statistică
Valoarea calculată a lui r (+0.74) este mai mare decât valoarea critică (+0.62), fapt care
îndreptăţeşte respingerea ipotezei de nul. Ca urmare, acceptăm ca semnificativ coeficientul
de corelaţie obţinut. Datele cercetării susţin ipoteza că între scorurile celor două teste
există o legătură pozitivă semnificativă.

235
7.4.6. Corelaţie şi cauzalitate

Coeficientul de corelaţie ne oferă informaţii despre modul în care variază valorile a două
variabile, una în raport cu cealaltă. Ca urmare, coeficientul de corelaţie nu are o
semnificaţie cauzală decât dacă cele două variabile au fost măsurate într-un context
care probează cauzalitatea. Iar acest lucru se petrece numai în condiţii de experiment.

7.4.7. Natura liniară a corelaţiei Pearson

Figura 7.13. Figurile a şi b sunt corelaţii perfecte curbilinii, iar c reprezintă o corelaţie perfectă rectilinie

Trebuie să reţinem faptul că ceea ce exprimă r este intensitatea corelaţiei liniare, adică
măsura în care norul de puncte reprezentat de intersecţia valorilor perechi ale celor
două variabile poate fi reprezentat de o linie dreaptă. Asocierea de tip liniar este însă
doar una dintre formele de aproximare a legăturii dintre variabile. În realitate, uneori,
corelaţia dintre două variabile are o formă care se abate de la modelul rectiliniu (are o
formă curbă). Dacă privim imaginile de mai jos, putem observa câteva tipuri posibile de
curbe de corelaţie. Figurile a şi b exprimă corelaţii perfecte, dar care se supun unui
model curbiliniu, în timp ce figura c reprezintă o corelaţie perfectă rectilinie. Relaţiile
curbilinii sunt calculate pe baza altor proceduri decât coeficientul Pearson (r), dar
236
acestea nu fac de regulă obiectul de studiu al unei introduceri în statistica aplicată. Să
reţinem totuşi că, dacă am calcula un coeficient r pentru distribuţiile din figurile a şi b,
atunci valoarea acestora ar fi foarte mică şi, cel mai probabil, nesemnificativă, în ciuda
asocierii grafice evidente a valorilor lor.

Pentru a înţelege şi mai bine acest fapt, oferim un exemplu ilustrativ. Am introdus

valorile lui z şi probabilităţile corespunzătoare lor de pe curba normală, într-un program

de prelucrări statistice. Forma normală a curbei obţinute ne indică faptul că, dinspre
partea stângă a acesteia, valorile z devin din ce în ce mai mici (în valoare absolută),
corespunzător cu creşterea probabilităţii, până la mijlocul curbei, unde z=0, iar
probabilitatea este maximă. Mergând mai departe, spre dreapta, valorile lui z încep să
crească, concomitent cu reducerea probabilităţii. Coeficientul de corelaţie calculat pentru
un eşantion de date ale celor două variabile statistice este r=0, iar imaginea scatterplot
a relaţiei dintre ele este prezentată în figura alăturată:

Figura 7.14. Graficul corelaţiei dintre un eşantion de valori simetrice de pe curba normală z şi
probabilităţile asociate acestora

În mod uzual, valorile lui r se raportează cu două zecimale, chiar dacă valorile tabelare
şi cele calculate de programele statistice sunt cu mai mult de două zecimale.

Aşa cum se observă, deşi r=0, ceea ce indică absenţa oricărei corelaţii liniare între
variabile, curba de distribuţie arată o corelaţie curbilinie perfectă.

237
Din fericire, astfel de situaţii sunt relativ rare în realitate, modelul corelaţiei liniare fiind
adecvat pentru un mare număr de relaţii dintre variabilele naturale, incluzându-le şi pe
cele psihologice. Atunci când există suspiciuni consistente cu privire la natura liniară a
legăturii dintre variabile, se pot efectua anumite transformări care să le aducă în cadrul
unei variaţii liniare (de exemplu, extragerea radicalului sau logaritmarea variabilelor).
Atunci când se raportează un coeficient de corelaţie fără a se preciza caracterul liniar
sau curbiliniu, vom considera că acesta se referă la corelaţia liniară.

Exemplul dat ne sugerează faptul că graficul scatterplot oferă informaţii suplimentare


semnificative şi, din acest motiv, este recomandabilă realizarea acestuia de fiecare dată
când utilizăm testul de corelaţie Pearson. Un argument spectaculos în sprijinul acestui
aspect ne este oferit de Anscombe (1973), care a realizat cele patru seturi de date din
tabelul de mai jos:

Tabelul 7.10. Seturile de valori Anscombe

Setul 1 Setul 2 Setul 3 Setul 4


X1 Y1 X2 Y2 X3 Y3 X4 Y4
10,0 8,04 10,00 9,1 10,00 7,46 8,00 6,58
8,00 6, 8,00 8,1 8,00 6,77 8,00 5,76
13,0 7,58 13,00 8,7 13,00 12,7 8,00 7,71
9,00 8,81 9,00 8,7 9,00 7,11 8,00 8,84
11,0 8,33 11,00 9,2 11,00 7,81 8,00 8,47
14,0 9,96 14,00 8,1 14,00 8,84 8,00 7,04
6,00 7,24 6,00 6,1 6,00 6,08 8,00 5,25
4,00 4,26 4,00 3,1 4,00 5,39 19,00 12,50
12,0 10,84 12,00 9,1 12,00 8,15 8,00 5,56
7,00 4,82 7,00 7,2 7,00 6,42 8,00 7,91
5,00 5,68 5,00 4,7 5,00 5,73 8,00 6,89

Coeficienţii de corelaţie dintre cele patru perechi de variabile (X 1-Y1, X2-Y2, X3-Y3; X4-Y4)
sunt identici: r=0.81. Şi totuşi, dacă sunt analizate reprezentările scatterplot pentru
fiecare dintre cele patru perechi de variabile, imaginile ne oferă diferenţe importante cu
privire la natura reală a relaţiei dintre ele:

238
Figura 7.15. Graficul scatterplot pentru cele 4 perechi de variabile ale lui Anscombe
În cazul perechii X3-Y3, o valoare extremă a redus coeficientul de corelaţie, iar în cazul
perechii de variabile X4-Y4, unde corelaţia ar fi fost nulă, ea este generată de o singură
valoare extremă. Desigur, astfel de efecte apar cu precădere în cazul eşantioanelor de
volum mic, dar grija pentru valorile extreme trebuie menţinută în toate cazurile.

7.4.8. Mărimea efectului coeficientului de corelaţie

Spre deosebire de testele t, introduse anterior, valoarea testului r este interpretabilă prin
ea însăşi, exprimând intensitatea asocierii dintre variabile. Aşa cum am spus deja, avem
o corelaţie perfectă atunci când r este egal cu +1 sau –1. Valoarea obţinută pe exemplul
nostru (+0.74) este destul de apropiată de +1. Desigur, +0.74 este mai puţin decât +1,
dar şi mai mult decât, să zicem, +0.32. O asemenea interpretare, deşi absolut corectă,
nu poate fi satisfăcătoare. Se simte necesitatea de a avea un criteriu de valorizare a
cuantificării numerice a corelaţiei. De-a lungul timpului au fost propuse diverse astfel de
scale de valorizare, prin atribuirea unor calificative coeficienţilor de corelaţie, în funcţie
de mărimea lor. Această problemă comportă multe discuţii, iar soluţiile oferite de diferiţi
autori sunt deseori diferite. Ca regulă generală, toţi autorii sunt de acord că valorile mai

239
mici de ±0.1 ale coeficienţilor de corelaţie trebuie să fie considerate „neglijabile”, chiar şi
atunci când ating pragul de semnificaţie statistică.

Oferim, cu caracter orientativ, modelul de descriere propus de Hopkins (2000) cu privire


la interpretarea valorilor coeficienţilor de corelaţie:

Tabelul 7.11. Interpretarea coeficientului de corelaţie(Hopkins, 2000)

Coeficientul Descriptor
de corelaţie
0.0-0.1 Foarte mic, neglijabil, nesubstanţial
0.1-0.3 Mic, minor
0.3-0.5 Moderat, mediu
0.5-0.7 Mare, ridicat, major
0.7-0.9 Foarte mare, foarte ridicat
0.9-1 Aproape perfect, descrie relaţia dintre două variabile practic
indistincte
O altă variantă de interpretare a mărimii efectului recunoscută este cea propusă de
Davis (citat de Kotrlik şi Williams, 2003):

Tabelul 7.12. Interpretarea coeficientului de corelaţie(Davis, apud Kotrlik şi Williams, 2003)

0.70 - 1 asociere foarte puternică


0.50 – 0.69 asociere substanţială
0.30 – 0.49 asociere moderată
0.10 – 0.29 asociere scăzută
0.01 – 0.09 asociere neglijabilă
Înaintea oricărui calificativ însă, prima condiţie pentru a lua în considerare existenţa unei
corelaţii între două variabile rămâne atingerea pragului de semnificaţie (alfa). Dacă
valoarea lui r este mai mică decât r critic (corespunde unui nivel p mai mare de 0.05,
sau decât alt prag legitim decis de cercetător), existenţa unei corelaţii nu poate fi luată
în considerare, indiferent de mărimea coeficientului r Pearson. Aceasta, deoarece nu
avem temei pentru a accepta că se îndepărtează suficient de o valoare care ar fi putut
decurge prin jocul hazardului.

240
În cele din urmă ce trebuie să luăm în considerare, semnificaţia sau intensitatea
asocierii? Desigur, răspunsul este unul relativ. Dacă finalitatea studiului este aceea de a
lua decizii, ca în cazul selecţiei de personal, de exemplu, se vor căuta valori cât mai mari
ale coeficientului de corelaţie r. Dar dacă obiectivul este preponderent teoretic, de a
pune în evidenţă relaţii „ascunse” între variabile, atunci, indiferent de mărimea lor,
coeficienţii de corelaţie vor fi luaţi în considerare (desigur, dacă sunt mai mari de 0.1).

7.4.9. Coeficientul de determinare

Valorile lui r trebuie considerate pe o scală ordinală. Ca urmare, nu este corect să


afirmăm că un coeficient de corelaţie de 0.40 este de două ori mai mare decât un altul
de 0.20. Dacă dorim să comparăm în mod direct doi coeficienţi de corelaţie trebuie să
ridicăm valorile lui r la pătrat (r 2), obţinând astfel ceea ce se numeşte coeficient de
determinare (prezentat în programele statistice şi ca „r squared”). Acesta este considerat
un indicator mai adecvat al mărimii efectului, deoarece ia valori sensibili mai mici decât
cele ale coeficientului de corelaţie. Pentru exemplul nostru, coeficientul de determinare
este 0.742=0.55. Transformat în procente, acest rezultat se interpretează astfel: „55%
din variaţia (împrăştierea) uneia dintre cele două variabile este determinată de variaţia
celeilalte variabile”. Sau, altfel spus, cele două variabile au in comun 55% din variaţia
care le caracterizează, ceea ce înseamnă că 45% din variabilitatea lor provine din alte
surse. Atenţie, interpretarea procentuală, în maniera prezentată, este valabilă numai
pentru coeficientul de determinare. Coeficientul de corelaţie r nu poate fi interpretat în
nici un caz sub formă procentuală!

Cohen (citat de Kotrlik şi Williams, 2003) a propus următoarea regulă de evaluare a


mărimii coeficentului de determinare ca indice de mărime a efectului în cazul corelaţiei:

Tabelul 7.13. Interpretarea coeficientului de corelaţie(Davis, apud Kotrlik şi Williams, 2003)

0.0196 efect mic


r2 (Cohen) 0.1300 efect mediu
0.2600 efect mare

241
Vom observa că valorile lui r corespunzătoare celor trei praguri ale lui r 2 sunt 0.14, 0.36
şi, respectiv, 0.50, ceea ce este în concordanţă cu recomandările de mai sus pentru
interpretarea lui r.

Să reţinem că mărimea efectului, care este, de fapt, însăşi mărimea coeficientului r,


depinde de două elemente principale:

-Caracterul liniar al relaţiei dintre variabile. O componentă curbilinie a asocierii va


conduce la valori mai mici ale coeficientului de corelaţie. - Graficul scatterplot ne poate
ajuta la evidenţierea acestui aspect. Variabilitatea distribuţiilor comparate. Dacă
variabilele cercetate au o împrăştiere redusă, acest fapt limitează posibilitatea de a
obţine valori ridicate pentru r.
Mărimea eşantionului are efect doar asupra puterii testului (eşantioanele mari conduc
mai uşor la atingerea pragului de semnificaţie), dar nu au un efect important asupra
mărimii lui r.

7.4.10. Limitele de încredere pentru coeficientul de corelaţie r

Atunci când calculăm coeficientul de corelaţie pentru valorile măsurate pe un eşantion, o


facem, desigur, cu scopul de a avea o estimare asupra gradului în care cele două
variabile au o variaţie comună la nivelul întregii populaţii. Deoarece calcularea corelaţiei pe
„valorile populaţiei” este practic imposibilă, tot ce putem face este să o estimăm, cu o
anumită marjă de eroare, prin utilizarea corelaţiei pe eşantion. Astfel, în termeni formali,
r (calculat pentru eşantion) este o estimare pentru ρ (ro), corelaţia „adevărată” la nivelul
populaţiei.

7.4.10. Calcularea limitelor de încredere pentru coeficientul de corelaţie


Construirea intervalelor de încredere pentru coeficientul de corelaţie la nivelul populaţiei
(ρ) nu este la fel de simplă ca în cazul altor valori statistice, dar se bazează pe acelaşi
raţionament fundamental: limitele de încredere se află în jurul unui punt de estimare ®
la care se adaugă sau se scade valoarea r critic înmulţită cu eroarea standard a estimării.
Problemele specifice decurg din natura distribuţiei lui r. Atunci când valoarea corelaţiei la
nivelul populaţiei este ρ=0, distribuţia de eşantionare rs (valorile lui r care ar fi calculate

242
pe eşantioanele extrase din aceeaşi populaţie) formează o distribuţie normală în jurul lui
zero (dacă volumul eşantionului este suficient de mare). Dar dacă ρ=+0.7, distribuţia lui
rs are o împrăştiere asimetrică în jurul lui acestei valori. Motivul este simplu: este mai
mult „loc” pentru valori sub +0.7 decât peste această valoare, deoarece ştim că r ia
valori între -1 şi +1. Cu cât estimarea pentru ρ este mai aproape de limitele teoretice ale
lui r, cu atât distribuţia rs este mai asimetrică spre partea opusă. Această particularitate
creează o piedică în transformarea coeficienţilor rs în scoruri Z (cu majusculă, pentru a
se evita confuzia cu scorurile z clasice), necesare construirii limitelor intervalului de
încredere pentru ρ. Problema a fost rezolvată de Fisher, care a elaborat un algoritm pe
baza căruia valorile rs sunt transformate în valori Z, a căror arie de distribuţie sub curba
normală este cunoscută:

Z=0.51n[(1 + r)/(1 - r)] (formula 7.27)

Pentru a se evita aplicarea acestei formule relativ greoaie, se poate utiliza un tabel (vezi
în anexă tabelul Fisher de transformare în Z a valorilor lui r) care, chiar dacă nu conţine
toate valorile intermediare, este suficient pentru a acoperi nevoile practice.

Să luăm ca exemplu valoarea coeficientului de corelaţie parţială obţinut de noi mai sus:
r=+0.74. Ne propunem să aflăm care sunt limitele de încredere ale acestei valori, adică
să definim intervalul în care se poate afla valoarea reală a corelaţiei la nivelul populaţiei,
cu o probabilitate asumată. De regulă, aşa cum ştim, această probabilitate asumată este
de 0.05 sau, exprimată altfel, un nivel de încredere de 95%.

Practic, aflarea limitelor se face în felul următor:

-Se transformă r calculat în valoare Z, citind tabela Fisher: în cazul nostru, pentru
r=0.74 avem o valoare Zr=0.9505 (dacă valoarea lui r nu se regăseşte ca atare în tabel,
se poate face o medie a valorilor apropiate). Pe o distribuţie normală, cum este
distribuţia de eşantionare Z, ştim că aproximativ 95% dintre valori se întind între -1.96 şi
+1.96. Adică, pe o distanţă de aproximativ două abateri standard în jurul mediei
(abaterea standard a valorilor Z fiind 1).
-Se calculează eroarea standard a transformării Zr, cu formula:

243
-Se calculează limitele superioară şi inferioară a intervalului: ρ = Zr ± zcritic * re, adică:
Limita superioară (Z): 0.9505+1.96*0.447=+1.826 Limita inferioară (Z): 0.9505-
1.96*0.447=+0.074

Limitele astfel calculate sunt exprimate în valori transformate Z, ori noi avem nevoie să
ştim limitele în valori ale lui r. Pentru aceasta, facem acum transformarea inversă, citind
valorile lui Z în tabela Fisher, corespunzătoare celor două limite de mai sus:

Limita superioara de încredere pentru r=+0.95

Limita inferioară de încredere pentru r=+0.07

În concluzie, valoarea adevărată (la nivelul populaţiei) a corelaţiei dintre cele două
variabile, se află, cu o probabilitate de 95%, în intervalul cuprins între +0.07 şi +0.95.
Limita inferioară este în apropierea unei corelaţii egale cu 0, iar limita superioară în
vecinătatea corelaţiei perfecte, ceea ce ne arată o precizie de estimare scăzută. Acest
fapt este normal, dacă avem în vedere mărimea redusă a eşantionului, care determină
un nivel ridicat al erorii standard pentru r (prin faptul că se află la numitorul formulei).

Utilizarea limitelor de încredere


Dacă analizăm limitele intervalului de încredere astfel obţinute, pentru exemplul nostru,
trebuie să constatăm că ele sunt foarte mari, în zona valorilor pozitive, dar având limita
inferioară destul de aproape de valoarea zero. Acest fapt conduce la concluzia că, deşi
este atât mare şi semnificativ statistic, coeficientul obţinut are o valoare mică de
generalizare. Situaţia este generată, în acest caz, de volumul extrem de mic al
eşantionului. Amplitudinea intervalului de încredere este direct dependentă de volumul
eşantionului. Cu cât N este mai mare, cu atât valoarea erorii standard tinde să scadă,
ceea ce aduce limitele intervalului de încredere mai aproape de valoarea calculată a lui
r.

244
Să ne imaginăm că am efectuat un calcul de corelaţie pe 30 de subiecţi şi am obţinut
r=0.30 (când semnul corelaţiei nu este specificat, se consideră pozitiv). Limitele de
încredere pentru acesta sunt între -0.07 şi +0.60, ceea ce arată că este nesemnificativ,
dat fiind faptul că între cele două limite este şi valoarea zero, aceea care este vizată de
ipoteza de nul. Faptul că limita inferioară este foarte aproape de valoarea zero (la numai
7 sutimi de ea), ne îndreptăţeşte să credem că, prin mărirea volumului eşantionului de
cercetare ar putea fi atins nivelul de semnificaţie statistic. Aceasta, deoarece în formula
erorii standard a lui r volumul eşantionului se află la numitor şi, cu cât N va fi mai mare,
cu atât valoarea lui re va fi mai mică, iar limitele intervalului de încredere pentru r, mai
aproape de r.

Tabelul următor arată care sunt limitele pentru exemplul dat, dacă N ar creşte,
progresiv, până la 100:

Tabelul 7.14. Variaţia limitelor de încredere ale lui r, în funcţie de volumul eşantionului

N Pearson r Niv. de Limite de încredere


încredere inferioară superioară

(%)

30 0,30 95 -0,07 0,60


40 0,30 95 -0,01 0,56
50 0,30 95 0,02 0,53
60 0,30 95 0,05 0,51
70 0,30 95 0,07 0,50
80 0,30 95 0,09 0,49
90 0,30 95 0,10 0,48
100 0,30 95 0,11 0,47

Utilitatea practică a acestor estimări de limite este dată de faptul că ne arată cu cât ar
trebui să creştem volumul eşantionului pentru a obţine un rezultat semnificativ al
coeficientului de corelaţie dintre cele două variabile. Aşa cum se vede, dacă am creşte
volumul eşantionului la 50 de subiecţi, limita inferioară ar trece deja peste valoarea zero.

245
Celelalte linii din tabel prezintă efectul de mărime al eşantionului în cazul creşterii lui N
până la 100 de subiecţi.

7.4.11. Semnificaţia diferenţei dintre doi coeficienţi de corelaţie

Să presupunem că într-o cercetare este evaluată corelaţia dintre extraversie şi


agresivitate separat, pentru bărbaţi şi pentru femei, obţinându-se o valoare r=0.50
pentru bărbaţi şi o valoare r=0.30 pentru femei, ambii coeficienţi fiind semnficativi. În
acest caz ne-am putea pune problema dacă cei doi coeficienţi diferă semnificativ între ei,
ceea ce ar însemna că relaţia dintre extraversie şi agresivitate este mai ridicată la
bărbaţi decât la femei.

Diferenţa dintre doi coeficienţi de corelaţie poate fi evaluată cu un test specific, care ia în
considerare nu doar diferenţa dintre valorile r, ci şi mărimea eşantioanelor şi mărimea în
sine a celor doi coeficienţi. De exemplu, având în vedere că semnificaţia coeficienţilor de
corelaţie depinde şi de mărimea eşantionului, înseamnă că o diferenţă de 0.1 între doi
indici de corelaţie poate fi nesemnificativă dacă cei doi r sunt 0.15 şi 0.25, dar poate fi
semnificativă dacă valorile r comparate sunt 0.80 şi 0.90.

Modul de calcul al semnificaţiei dintre doi coeficienţi de corelaţie va fi prezentat mai


tîrziu, în capitolul rezervat procedurilor SPSS(PASW).

7.4.12. Condiţii pentru calcularea coeficientului de corelaţie Pearson

Pentru a putea utiliza în mod legitim calculul de corelaţie eşantionul trebuie să fie
aleatoriu, iar cele două variabile (ambele măsurate pe scale de interval/raport) trebuie
să aibă o distribuţie care să nu se abată grav de la distribuţia normală. Această condiţie
este cu atât mai importantă cu cât eşantionul este mai mic. O atenţie aparte trebuie
acordată valorilor excesive, prezenţa acestora putând avea efecte neaşteptate asupra
valorii coeficientului de corelaţie (vezi exemplele lui Anscombe).

7.4.13. Utilizarea coeficientul de corelaţie

Analiza de corelaţie este una dintre cele mai uzuale proceduri statistice în cercetarea
psihologică. Printre utilizările cele mai comune menţionăm analiza consistenţei şi validităţii

246
testelor psihologice. Consistenţa se referă la gradul în care un instrument de evaluare se
concentrează asupra unei anumite realităţi psihice. Validitatea, se referă la faptul dacă
ceea ce presupune că măsoară un instrument psihologic este măsurat cu adevărat (de
exemplu, o scală de anxietate măsoară cu adevărat anxietatea?).

Din cele prezentate, rezultă că putem utiliza coeficientul atunci când avem serii perechi
de distribuţii. Pentru o mai bună înţelegere, se cuvine să facem câteva aprecieri
comparative cu testul t pentru eşantioane dependente. Testul t pentru eşantioane
dependente, se aplică atunci când măsurăm o anumită variabilă în două situaţii diferite
(de ex. înainte/după), ceea ce presupune aceeaşi unitate de măsură. Coeficientul de
corelaţie poate fi aplicat atât pentru variabile măsurate cu aceeaşi unitate de măsură cât
şi pentru variabile exprimate în unităţi de măsură diferite. Aceasta deoarece formula de
calcul ia în considerare expresia standardizată a valorilor (corurile z). Întrebarea este,
când utilizăm unul sau altul dintre cele două teste? Răspunsul ţine de scopul pe care ni-l
propunem. Dacă dorim să punem în evidenţă diferenţa dintre valorile medii ale
variabilelor, vom aplica testul t pentru eşantioane dependente. Dacă ne interesează
intensitatea variaţiei concomitente a variabilelor, vom utiliza coeficientul de corelaţie.

Coeficientul de corelaţie Pearson nu este singurul test al asocierii variabilelor. Există o


varietate de teste de corelaţie, utilizate pentru situaţiile în care variabilele cercetate sunt
măsurate, fiecare, pe oricare dintre scalele de măsurare.

7.4.14. Publicarea rezultatului corelaţiei

Raportarea coeficienţilor de corelaţie va cuprinde, pe lângă indicatorii statistici descriptivi


ai variabilelor (medii, abateri standard, indicatorii simetriei şi aplatizării), volumul
eşantionului, valoarea lui r, nivelul de semnificaţie şi coeficientul de determinare (r 2).
Prezentarea limitelor de încredere nu este uzuală, poate şi pentru că programele
statistice obişnuite nu le oferă, dar calcularea şi includerea lor în documentul cercetării
este de dorit.

Pentru exemplul de mai sus, o prezentare narativă a rezultatului ar putea arăta astfel:
„A fost evaluată performanţa la un test de calcul aritmetic şi la unul de raţionament

247
verbal logic, pentru un eşantion de 6 subiecţi. Scorurile mari se referă la performanţe
ridicate. Media scorului la primul test a fost de m=29.63 (s=6.76), iar la al doilea
m=29.88 (s=7.01). Am obţinut o corelaţie semnificativă între cele două performanţe,
r=0.74 (r2=0.55), p<0.05, bilateral. Limitele de încredere pentru coeficientul r (95%)
sunt cuprinse între +0.07 şi +0.95.”

NOTĂ: Se precizează neapărat semnificaţia valorilor variabilelor în raport de mărimea


lor, pentru a se putea aprecia corect natura relaţiei dintre variabile.

7.4.15. Rezumat

1.Coeficientul de corelaţie Pearson testează intensitatea asocierii dintre două variabile


măsurate pe aceiaşi subiecţi, în condiţii diferite sau cu instrumente diferite.
2.Coeficientul de corelaţie nu este un indicator al relaţiei cauzale, ci doar a variaţiei
concomitente a valorilor variabilelor testate.
3.Domeniul de variaţie al coeficientului r se regăseşte între - 1 (corelaţie perfectă
negativă) şi + 1 (corelaţie perfectă pozitivă). Valoarea zero indică absenţa oricărei
corelaţii.
4.Coeficientul de corelaţie este sensibil la valorile extreme. Cu cât eşantionul este mai
mic, cu atât efectul eventualelor valori extreme este mai mare. De aceea, se va avea în
vedere inspectarea graficului scatterplot, care poate oferii informaţii despre modul de
asociere a variabilelor, efectul eventualelor valori extreme şi chiar despre existenţa unui
alt tip de asociere decât cel rectilininiu (prin utilizarea opţiunilor grafice analitice ale
programelor statistice).
5.Tipul asocierii surprins de coeficientul Pearson este cel liniar (rectiliniu), care înseamnă
că, în cazul unor asocieri curbilinii, chiar perfecte, valoarea coeficientului Pearson (r)
poate fi mai mică sau chiar 0.
6.Valoarea coeficientului de corelaţie este, prin ea însăşi, un indicator de mărime a
efectului. Totuşi, în acest scop se utilizează coeficientul de determinare (r 2).
7.Coeficientul r calculat pe eşantion estimează corelaţia la nivelul populaţiei.
8.Valoarea reală a corelaţiei la nivelul populaţiei nu poate fi cunoscută cu precizie, dar
poate fi estimată cu ajutorul limitelor de încredere pentru r.

248
7.4.16. EXERCIŢII(Verificaţi răspunsurile corecte la secţiunea 14. Rezolvări şi
explicaţii la exerciţiile din volum, Capitolul 7, exerciţiile 7.4.16)

Un psiholog şcolar consemnează numărul conduitelor agresive efectuate şi,


concomitent, numărul conduitelor de apreciere primite de aceiaşi elevi, pe durata
pauzelor. Rezultatele sunt centralizate în tabelul următor.
nr. conduite 2 7 5 12 1 10 8 6 5 2 3 4
nr. aprecieri 8 3 4 2 5 2 1 5 4 7 6 1

1.Care este coeficientul de corelaţie între cele două variabile?


2.Este coeficientul r obţinut, semnificativ la un nivel alfa=0.05, bilateral?
3.Cum interpretaţi psihologic rezultatul?
4.Evaluaţi mărimea efectului
5.Calculaţi limitele lui r pentru un interval de încredere de 95%apitolul

249
Capitolul 8. Teste statistice parametrice cu SPSS/PASW

8.1.Testul z (t) pentru media unui singur eşantion


Pentru a efectua testul z (t) pentru media unui singur eşantion efectuăm următoarea
succesiune de comenzi:

În caseta de dialog care se deschide selectăm variabila pe care dorim să o analizăm,


înscriem valoarea de referinţă. Subdialogul Options permite alegerea pragului de
semnificaţie (valoarea implicită este 95%, echivalentă pragului de semnificaţie p=0,05)

În cazul de faţă am stabilit valoarea de referinţă 50 întrucât dorim să analizăm


scorurile obţinute pe scala N1 - Nevrotism a chestionarului CP 14 F; acestea sunt
exprimate în note T, care au media 50 şi abaterea standard 10.
Rezultatele sunt prezentate sub forma a două tabele:
- primul tabel cuprinde statisticile descriptive ale variabilei testate:

250
One-Sample Statistics
Std. Std. Error
N Mean Deviation Mean
nota T 317 53.61 9.603 .539
n1
- al doilea tabel prezintă rezultatele testului statistic:

Când se raportează rezultatele, sunt suficiente primele două zecimale ale valorii
calculate a testului t; în cazul în care pragul de semnificaţie prezentat de PASW/SPSS
este 0,000, se raportează 0,001.
În cazul prezentat, media eşantionului evaluat diferă semnificativ de media populaţiei pe
care a fost efectuată etalonarea testului.

8.2.Testul t pentru eşantioane independente


Pentru a testa diferenţa între mediile aceleiaşi variabile măsurate pe două grupuri
formate din subiecţi diferiţi, lansăm următoarele comenzi:

După alegerea variabilei care va fi studiată, în caseta de dialog se va defini variabila


independentă (în cazul de faţă aceasta este „sub” – structura organizaţională din care

251
fac parte participanţii la experiment). Aceasta apare însoţită de două semene de
întrebare şi, concomitent, devine activ butonul Define Groups, care activează
subdialogul care permite selectarea grupurilor care vor fi comparate.

Rezultatele sunt prezentate, şi în acest caz, sub forma a două tabele:


- primul tabel conţine statisticile descriptive ale celor două grupuri:
Group Statistics
structura Std. Std. Error
N Mean Deviation Mean
nevrotis 1 75 16.55 9.602 1.109
dimension1 2 83 14.81 10.268 1.127
m
- al doilea table prezintă rezultatele testului statistic:

Datele din tabel sunt prezentate pe două rânduri: pe primul rând sunt prezentate
rezultatele testului t pentru situaţia în care este îndeplinită condiţia de omogenitate a

252
varianţei celor două grupuri, pe cel de-al doilea rând sunt prezentate rezultatele în
situaţia în care această condiţie nu ar fi îndeplinită.
Condiţia de omogenitate a varianţelor este evaluată cu testul Levene; dacă acesta
este nesemnificativ, se citesc rezultatele la testul t afişate pe rândul de sus. În caz
contrar,se citesc rezultatele pe rândul de jos.
În situaţia prezentată, F (158) = 0,204, p=0,65. Cum F este nesemnificativ,
condiţia omogenităţii varianţelor este îndeplinită, ceea ce înseamnă că vom citi
rezultatele pe rândul superior: t (158) = 1,096, p=0,28, adică nu există diferenţe
semnificative între mediile celor două grupuri.

8.3.Testul t pentru diferenţa dintre mediile a două eşantioane dependente


Pentru a compara scorurile a două variabile-pereche, efectuăm următoarea succesiune
de comenzi:

În caseta de dialog care se deschide selectăm perechile de variabile. Pe durata unui


program de instruire a fost evaluată anxietatea-stare, cu ajutorul chestionarului STAI-
X2. Întrucât parcurgerea programului presupunea asumarea unor riscuri la adresa
integrităţii fizice a participanţilor, s-a presupus ca nivelul anxietăţii va înregistra creşteri
faţă de nivelul iniţial, apoi, la final va reveni la nivelul iniţial.

253
Rezultatele analizei sunt prezentate în trei tabele:
- etichetele variabilelor care au constituit perechea sau perechile, mediile, numărul de
subiecţi, abaterile standard şi erorile standard ale mediilor;
Paired Samples Statistics
Std. Std.
Deviatio Error
Mean N n Mean
Pair 1 anxietate 46.8182 55 3.79615 .51187
stare 1
anxietate 45.7636 55 4.34598 .58601
stare 2
Pair 2 anxietate 46.8182 55 3.79615 .51187
stare 1
anxietate 46.9273 55 3.84349 .51826
stare 3
Pair 3 anxietate 45.7636 55 4.34598 .58601
stare 2
anxietate 46.9273 55 3.84349 .51826
stare 3

- coeficienţii de corelaţie ai variabilelor incluse în perechi şi pragurile de semnificaţie


asociate acestora;

254
Paired Samples Correlations
Correlatio
N n Sig.
Pair 1 anxietate stare 1 & 55 .433 .001
anxietate stare 2
Pair 2 anxietate stare 1 & 55 .475 .000
anxietate stare 3
Pair 3 anxietate stare 2 & 55 .205 .133
anxietate stare 3

- rezultatele testului t:
Paired Samples Test
Paired Differences
95%
Std. Confidence
Std. Error Interval of the
Deviati Mea Difference Sig. (2-
Mean on n Lower Upper t df tailed)
Pair anxietate 1.054 4.360 .588 -.124 2.233 1.793 54 .078
1 stare 1
anxietate
stare 2
Pair anxietate -.109 3.914 .528 -1.167 .949 -.207 54 .837
2 stare 1
anxietate
stare 3
Pair anxietate -1.163 5.177 .698 -2.563 .236 -1.667 54 .101
3 stare2
anxietate
stare 3
După cum se observă, în cazul prezentat rezultatele sunt nesemnificative (p>0,05) în
toate cele trei situaţii, ceea ce înseamnă că nivelul de anxietate al participanţilor la
experiment nu a înregistrat diferenţe semnificative.

255
8.4.Analiza de varianţă unifactorială
Procedura One-Way ANOVA pachetului statistic PASW/SPSS permite testarea ipotezei că
mediile a două sau mai multe grupuri nu diferă semnificativ. De asemenea, această
procedură permite calculul statisticilor la nivel de grup ale variabilei dependente,
testarea egalităţii varianţei, reprezentarea grafică a mediilor grupurilor ( plot), teste de
amplitudine, contrast sau comparaţii multiple pentru a surprinde natura diferenţelor
dintre grupuri.
Analiza de varianţă unifactorială poate fi utilizată, de exemplu, pentru a analiza
lungimea optimă a unui program de instruire: una, două sau trei zile.
O etapă importantă a analizei de varianţă o constituie verificarea asumpţiilor. Una dintre
aceste asumpţii o constituie echivalenţa varianţelor grupurilor. Una din modalităţile prin
care acesta poate fi evaluată este vizualizarea datelor astfel:

Din tab-ul Gallery, selectăm tipul de grafic cu bare, prin tehnica Drag-and Drop
selectăm varianta de reprezentare simplă a erorilor (Simple Error Bar), setăm, prin
intermediul aceleiaşi tehnici variabila „Rezultatul la evaluarea finală” pe axa y şi grupul
de instruire pe axa x.

256
În caseta Element Properties, în grupul Error Bars Represent , se bifează Standard Error:

Aşa cum apare în graficul furnizat de PASW/SPSS, pentru fiecare zi de training


performanţa creşte dar varianţa acestei variabile scade.

257
ANOVA presupune egalitatea varianţelor, dar aceasta nu poate fi asumată pentru datele
cercetării de faţă.
Pentru a testa egalitatea varianţelor, selectăm din lista de meniuri:

Următorul pas îl constituie selectarea variabilelor dependentă şi independentă:

Accesăm caseta de dialog Options şi selectăm Descriptive, apoi Homogeneity of


variance test.

258
Analiza statisticilor „Abaterea standard” şi „Eroarea standard” confirmă descreşterea
varianţei variabilei performanţă o data cu creşterea numărului de zile de instruire.

Testul Levene pentru egalitatea varianţelor testează ipoteza nulă că varianţele sunt
egale. Când pragul de semnificaţie al acestuia este mai mic decât valoarea critică (de
regulă 0,05), nu se poate considera că diferenţele se datorează doar procedurii de
eşantionare iar ipoteza nulă este respinsă. Deşi, în cazul de faţă testul este semnificativ,
ANOVA este robustă la această încălcare a asumpţiilor când grupurile analizate au
aceeaşi mărime sau o mărime aproximativ egală (ca în cazul de faţă). Totuşi,
cercetătorul poate alege să transforme datele sau să efectueze analize neparametrice
care nu presupun o astfel de condiţie prealabilă. Grupurile fiind egale, vom continua
analiza.
Prin intermediul opţiunii Means plot, vizualizăm diferenţele dintre grupuri.

259
Pragul de semnificaţie al testului F este 0,000, astfel încât ipoteza de egalitate a mediilor
variabilei „Rezultatele obţinute la evaluarea finală” în cele trei grupuri va fi respinsă.
O analiză sumară a naturii diferenţelor între cele trei grupuri este furnizată de opţiunea
Means Plots, selectată anterior, în cursul analizei.

260
În figura de mai sus se observă cum, o dată cu creşterea numărului de zile de instruire,
participanţii obţin rezultate superioare.
Altfel spus, testul F ajută cercetătorul să stabilească dacă exist sau nu diferenţe între
grupurile examinate iar reprezentarea grafică a mediilor sugerează sensul acestor
diferenţe. Totuşi, în funcţie de natura ipotezelor, cercetătorul poate opta pentru
efectuarea unor analize detaliate asupra naturii diferenţelor dintre grupuri.
Prima opţiune pentru studiul detaliat al diferenţelor îl constituie studiul contrastelor;
această tehnică se utilizează atunci când există o anumită direcţie a ipotezei statistice.
Pentru a verifica dacă există o tendinţă specifică a datelor se va selecta opţiunea
Polynomial.
Pentru a specifica seturi de contraste lineare sau ortogonale se activează opţiunea
Contrasts. Pentru fiecare contrast, coeficienţii trebuie introduşi în mod individual şi în
ordine. Un contrast este definit ca un set de coeficienţi a căror sumă este 0. Primul
coeficient corespunde celei mai scăzute valori de grup a variabilei independente iar
ultimii coeficienţi corespund celor mai ridicate valori. De exemplu, pentru trei grupuri,
valorile 1, 0 şi -1 vor produce contraste între grupurile 1 şi 3. Ne aşteptăm ca în cazul
trainingului cu o durată mai lungă,rezultatele învăţării să fie superioare; prin urmare,
vom compara cel de-al treilea grup cu primele două, considerate separat.

261
În primul tabel din Output sunt prezentaţi coeficienţii atribuiţi celor două
contraste, iar în cel de-al doilea tabel sunt afişate valorile testului t pentru fiecare din
cele două contraste atât în varianta în care dispersiile grupurilor comparate sunt egale,
cât şi în situaţia în care acestea nu sunt egale (cu ajustări, în acest din urmă caz).

Contrast Coefficients
Contrast Grupul de instruire
1 2 3
1 1 0 -1
2 0 1 -1
Cum în cazul prezentat egalitatea varianţelor nu a fost asumată, vom citi şi interpreta
informaţiile pe rândul de jos al tabelului. În ambele cazuri, testul t este semnificativ
statistic.

Mult mai frecvent sunt utilizate, însă procedurile de comparaţie post hoc între anumite
grupuri specifice. Acestea au calitatea de a păstra în limitele pragului de 0,05 riscul de a
comite o eroare de tip I .
În tabelul următor este prezentat un ghid de selecţie a testelor post hoc în funcţie de
egalitatea numărului de subiecţi din grupuri şi de omogenitatea dispersiei.

262
În cercetarea prezentată, numărul de subiecţi incluşi în fiecare din cele trei
grupuri este egal iar dispersiile sunt inegale (testul Levene a fost semnificativ). Prin
urmare, vom utiliza testul Dunnett T3.

Subdialogul care permite selecţia testelor post hoc pentru efectuarea


comparaţiilor multiple se activează prin apăsarea butonului Post Hoc a casetei de dialog
One-Way ANOVA. Selectarea unui alt test ar conduce la creşterea riscului de a comite
eroarea de tip I (proceduri prea liberale) sau a erorii de tip II (proceduri prea
conservatoare).

Rezultatele
sunt
prezentate sub
forma următorului tabel:

Multiple Comparisons
Rezultatul la evaluarea finala
Dunnett T3

263
(J) 95% Confidence
(I) Mean
Grupul Interval
Grupul de Difference Std. Error Sig.
de Lower Upper
instruire (I-J)
instruire Bound Bound
1 2 -9.98789* 3.84079 .039 -19.5867 -.3891

3 -15.69947* 3.17733 .000 -23.8515 -7.5475


2 1 9.98789 *
3.84079 .039 .3891 19.5867
3 -5.71158 2.56883 .100 -12.2575 .8343
3 1 15.69947 *
3.17733 .000 7.5475 23.8515
2 5.71158 2.56883 .100 -.8343 12.2575
*. The mean difference is significant at the 0.05 level.
Urmărind valorile testului Dunnett T3, observăm că nu există o diferenţă semnificativă
între rezultatele grupului care a fost instruit 3 zile faţă de persoanele care au fost
instruite pe parcursul a 2 zile, în timp ce rezultatele cursurilor de două sau trei zile sunt
superioare celui de o zi. În aceste condiţii, în funcţie de resursele avute la dispoziţie,
cercetătorul ar putea decide că două zile sunt suficiente pentru respectivul program sau
ar putea îmbunătăţi conţinutul pregătirii, astfel încât diferenţa dintre rezultatele
grupurilor 2 şi trei să fie diferite.

8.5.Coeficientul de corelaţie liniară Pearson (r)


Suntem interesaţi dacă scalele de nevrotism incluse în două chestionare de
personalitate (Eysenck Personality Questionnaire şi CP 14 F) măsoară aceleaşi construct
psihologic. Pentru a evalua gradul de asociere dintre două variabile în PASW/SPSS se
urmăreşte calea:

264
În caseta de dialog se selectează variabilele care vor fi analizate:

Această casetă permite şi bifarea coeficientului care se doreşte a fi calculat, a modului


de testare a ipotezelor (uni- sau bi-direcţional) sau a opţiunii de marcare a valorilor
semnificative din punct de vedere statistic.
În tabelul de prezentare a rezultatelor sunt prezentate valorile coeficienţilor de corelaţie,
pragul de semnificaţie şi mărimea eşantionului.

265
Correlations
nevrotism cp
14f nevrotism epq
nevrotism cp Pearson 1 .712**
14f Correlation
Sig. (2-tailed) .000
N 50 50
nevrotism epq Pearson .712** 1
Correlation
Sig. (2-tailed) .000
N 50 50
**. Correlation is significant at the 0.01 level (2-tailed).

În cazul prezentat, între cele


două variabile există o corelaţie
de nivel ridicat şi semnificativă
statistic (r=0,71, p=0,001).
Cercetătorul va concluziona că,
cele două constructe sunt foarte
asemănătoare, dar şi că există
diferenţe de care trebuie să ţină
cont în utilizarea celor două
instrumente de psihodiagnoză.
Coeficientul de corelaţie Pearson este util atunci când datele sunt distribuite relativ
uniform şi nu există valori aberante. Existenţa acestor posibile probleme poate fi
evidenţiată cu ajutorul diagramei de tip Scatterplot, care poate fi creată prin intermediul
meniului Graphs şi poate fi editată în fereastra de rezultate, astfel încât să reprezentată
tendinţa datelor şi limitele intervalului de încredere de 95%.

8.6. Exerciţii

266
Un psiholog şcolar consemnează numărul de conduitelor agresive efectuate şi,
concomitent, numărul conduitelor de apreciere primite de aceiaşi elevi, pe durata
pauzelor. Rezultatele sunt centralizate în tabelul următor.

Numărul de 2 7 5 12 1 10 8 6 5 2 3 4
conduite agresive

Numărul de 8 3 4 2 5 2 1 5 4 7 6 1
aprecieri primite

1.Care este coeficientul de corelaţie între cele două variabile?

2.Este coeficientul r obţinut, semnificativ la un nivel alfa=0.05, bilateral?


3.Cum interpretaţi psihologic rezultatul?
4.Efectuaţi reprezentarea scatterplot a celor două variabile.

5.Evaluaţi mărimea efectului

6.Calculaţi limitele lui r pentru un interval de încredere de 95%

(Verificaţi răspunsurile corecte la secţiunea 14. Rezolvări şi explicaţii la


exerciţiile din volum, Capitolul 8, exerciţiile 8.6)

267
Capitolul 9. Teste neparametrice pentru date nominale

Să ne imaginăm că un psihoterapeut doreşte să verifice eficienţa unei metode de terapie


anxiolitică, aplicată pe un număr de opt subiecţi. El poate măsura eficienţa într-unul din
următoarele moduri:

a. Aplică o scală de evaluare a anxietăţii înainte şi după tratament, după care


testează diferenţa dintre cele două medii cu testul t pentru eşantioane
dependente.
b. Îi întreabă la sfârşitul terapiei care este starea lor, comparativ cu perioada
anterioară terapiei. Dacă răspunsurile posibile sunt „ameliorat” şi „fără efect”,
şi constată că 80% dintre subiecţi se declară „amelioraţi”, poate concluziona că
tratamentul psihoterapeutic a fost eficientă? Rigoarea ştiinţifică permite un
răspuns pozitiv numai dacă procentul de 80% este mai mare decât unul care
ar fi putut rezulta din jocul hazardului.
Procedura care se aplică de regulă în situaţia a, este una de tip parametric, deoarece se
bazează pe estimarea unor indicatori (parametrici) ai distribuţiei la nivelul populaţiei. În
mod obişnuit, parametri utilizaţi sunt media şi unul dintre indicatorii împrăştierii
(abaterea standard sau dispersia). Testele parametrice se bazează pe precizia de
estimare a acestora, situaţie care presupune unele condiţii, cum ar, de exemplu,
normalitatea distribuţiei sau omogenitatea varianţei. Dar aceste condiţii pot să nu fie
îndeplinite, Dacă avem o variabilă dependentă a cărei distribuţie este puternic
asimetrică, sau care are valori extreme, legitime, atunci utilizarea unui test parametric nu
este recomandată. Într-o situaţie de acest gen, soluţia este transformarea variabilei,
având la dispoziţie două opţiuni:

1.păstrarea caracterului ei numeric (de exemplu, prin extragerea radicalului sau prin
logaritmarea valorilor variabilei), situaţie în care se va putea utiliza un test parametric,
sau...

268
2.transformarea într-o variabilă de tip ordinal (înlocuirea valorilor cu rangul lor) sau
categorial (împărţirea valorilor în categorii, după procedura prezentată la analiza de
frecvenţe grupate), situaţie în care se va apela la un test neparametric.
Procedura care se aplică în situaţia b este specifică testelor de tip neparametric,
deoarece se bazează pe probabilităţi şi nu pe indicatori parametrici ai distribuţiilor
(medie, dispersie sau abatere standard).

O altă situaţie problematică este aceea în care volumul eşantionului este foarte mic,
înţelegând prin aceasta un număr de subiecţi mult sub 30. În astfel de cazuri, chiar dacă
variabilele sunt exprimate pe scale cantitative, utilizarea testelor parametrice poate fi
nesigură şi nerecomandată 4.

Din cele spuse până acum, reţinem faptul că testele neparametrice reprezintă, pe de o
parte, alternative la testele parametrice, atunci când variabilele nu întrunesc condiţiile
impuse acestora şi, pe de altă parte, reprezintă singura opţiune atunci când variabila
dependentă este exprimată pe scală calitative (ordinale sau nominale).

Aşa cum am văzut, principiul care stă la baza testelor parametrice este găsirea unui
model teoretic („distribuţia de nul”), la care rezultatul cercetării să poată fi raportat.
Distribuţia de nul reprezintă variaţia unor valori de acelaşi tip cu rezultatul cercetării,
dacă acestea ar decurge dintr-un proces pur aleator, lipsit de influenţa condiţiilor în care
sunt măsurate (obţinute) datele cercetării. În cazul testelor parametrice distribuţia de
nul este construită pe baza parametrilor populaţiei şi urmează o anumită lege de distribuţie
(normală, t, F). Odată definită distribuţia de nul, urmează alegerea convenţională a unei
valori critice, delimitată de pragul alfa (maxim 0.05), cu care se compară valoarea
calculată a testului, şi decizia asupra semnificaţiei acestuia.

Acelaşi raţionament este valabil şi pentru testele neparametrice. Diferenţa apare doar în
modul în care se fundamentează distribuţia de nul. Aceasta se construieşte pe baza
legilor probabilităţii aplicate la evenimentele aleatoare, fără a se mai asuma condiţia

4
Afirmaţia intră în contradicţie cu faptul că am utilizat, pentru toate testele parametrice prezentate până
acum, exemple bazate pe eşantioane foarte mici. Se înţelege, desigur, că acest lucru a fost dictat de raţiuni
didactice, pentru evitarea efectuării unor calcule manuale laborioase. În practică, pentru eşantioane foarte mici se
ia în considerare, de regulă, utilizarea unor teste neparametrice

269
distribuţiei normală a variabilei dependente. Ca urmare, decizia statistică nu se mai
bazează pe inferenţa asupra parametrilor distribuţiei variabilei dependente. Din acest
motiv, testele neparametrice sunt independente de caracteristicile distribuţiei.

Testele neparametrice prezintă, în raport cu cele parametrice, o serie de avantaje, dar şi


dezavantaje.

Principalele avantaje sunt:

Se pot utiliza pe scale ale căror calităţi de măsurare sunt „slabe” (ordinale, nominale).
Pot fi utilizate în cazul variabilelor afectate de valori extreme care nu pot fi eliminate.
Utilizarea lor nu presupune condiţii la fel de restrictive ca testele parametrice
(normalitatea distribuţiei, omogenitatea varianţei, etc.).
Pentru anumite proceduri, calculele sunt relativ simple şi uşor de efectuat, chiar şi fără
utilizarea tehnicii de calcul.
Conceptele şi metodele statisticii neparametrice sunt uşor de înţeles.
Printre dezavantajele testelor neparametrice, sunt de menţionat:

Se bazează pe măsurări pe scale nominale şi ordinale, care sunt, prin natura lor,
măsurări mai puţin precise decât cele pe scale cantitative (de interval sau de raport).
Au o „putere” mai redusă decât testele parametrice de a proba că ipoteza cercetării este
adevărată.
Tind sa fie utilizate, datorită relativei lor simplităţi, şi în situaţii în care se pot utiliza teste
parametrice. Este important să reţinem faptul că, atunci când sunt întrunite condiţiile
pentru aplicarea unui test parametric, nu este recomandabilă transformarea variabilei şi
utilizarea unui test neparametric.
Deşi se bazează pe calcule elementare, adesea acestea pot fi destul de complexe şi de
laborioase.
Principiul care stă la baza evaluării mărimii efectului pentru testele parametrice
(proporţia explicată a varianţei) nu este uşor de aplicat în cazul testelor neparametrice.
Ca urmare, pentru multe dintre testele neparametrice nu se poate calcula un indicie de
mărime a efectului.

270
Ca o concluzie generală, utilizarea testelor neparametrice nu poate fi evitată dacă
variabila dependentă este una de tip nominal sau ordinal. Dacă, însă, este măsurată pe
o scală de interval/raport, se pune problema de a alege între un test parametric şi unul
neparametric.
În acest caz, criteriul principal de decizie este normalitatea distribuţiei la nivelul populaţiei.
În principiu, teorema limitei centrale oferă suportul teoretic al asumării acestei condiţii
pentru eşantioane „suficient de mari”. Din păcate, nu avem nici un criteriu sigur de
verificare a acestei condiţii. Din acest motiv există o anumită dispută în legătură cu
justificarea utilizării testelor parametrice în anumite cazuri. Dacă eşantioanele care se
apropie sau depăşesc 100 de valori (subiecţi) permit asumarea cu încredere a condiţiei
de normalitate, eşantioanele de mărimi medii (20-40 de subiecţi) sunt considerate mai
puţin sigure. Simulările pe calculator au arătat că există teste parametrice mai puţin
vulnerabile la violarea condiţiei de normalitate (testele t, de exemplu), dar şi altele care
devin nesigure în această situaţie (de ex., testul F pentru omogenitatea varianţei). Fără
a încerca tranşarea disputei, putem reţine că, mai ales pentru eşantioanele mici, atunci
când avem motive să ne îndoim de normalitatea distribuţiei la nivelul populaţiei, vor fi
preferate testele neparametrice.

9.1. Distribuţia binomială


Atunci când măsurăm o caracteristică pe o scală de tip cantitativ, obţinem o valoare care
descrie „mărimea” acelei caracteristici. Uneori, însă, nu facem decât să observăm măsura
în care acea caracteristică este prezentă într-un anumit context. De exemplu, observăm
caracteristica de gen (masculin, feminin) a copiilor la naştere, „prezenţa”⁄„absenţa”
efectului unei metode psihoterapeutice sau caracterul „corect”⁄„greşit” al răspunsului la
o serie de întrebări. În toate aceste cazuri naşterea unui băiat (sau unei fete), „prezenţa
efectului”, „răspunsul corect” sunt denumite „evenimente” despre care putem doar să
consemnăm frecvenţa cu care apar într-o anumită serie de „încercări” (naşteri, subiecţi
trataţi cu metoda respectivă, listă de întrebări).

271
Distribuţia evenimentelor de tip dihotomic, fiecare având o anumită probabilitate de
apariţie, constantă de la o încercare la alta, se numeşte distribuţie binomială 5.
Caracteristicile distribuţiei binomiale diferă în funcţie de numărul „încercărilor” (N) şi de
probabilitatea de apariţie a „evenimentului” (P), văzută ca şansă teoretică de apariţie a
evenimentului, în raport cu toate evenimentele posibile. De exemplu, la aruncarea unei
monede, o singură dată (N=1), şansa (probabilitatea) teoretică de apariţie a „stemei”
este P=1/2=0.5. Aceeaşi probabilitate caracterizează şi evenimentul „răspuns corect”,
dacă răspundem la întâmplare la o întrebare cu două variante de răspuns, dintre care
una este corectă iar alta greşită.

Să transpunem această problemă într-o situaţie cu relevanţă practică. Să ne imaginăm că


am construit un chestionar de cunoştinţe de statistică, compus din întrebări cu două
variante de răspuns, una corectă şi una eronată. În faţa rezultatelor, este firesc să ne
întrebăm dacă studenţii au răspuns utilizându-şi cunoştinţele, sau la întâmplare,
încercându-şi norocul. Dacă la un chestionar cu patru întrebări un student dă patru
răspunsuri corecte, sunt ele un indiciu suficient că rezultatul reflectă cunoştinţele de
statistică şi nu norocul de a fi ghicit de fiecare dată răspunsul corect?

Pentru a încerca să rezolvăm aceasta dilemă, să zicem că ne adresăm unui alt student
pentru a răspunde absolut la întâmplare. Ca să fim siguri că răspunsurile acestuia nu
sunt „alterate” de cunoştinţele sale de statistică, îi cerem să aleagă răspunsul fără a
vedea întrebările, dând de patru ori cu banul, pentru a indica răspunsul la fiecare
întrebare. În acest caz, răspunsurile corecte decurg numai prin jocul hazardului, adică
sunt „evenimente aleatoare”. Acestea se definesc ca raport între evenimentul aşteptat şi
numărul evenimentelor posibile. Existând doar două variante de răspuns, probabilitatea
teoretică de a răspunde corect la o întrebare este de 0.5. Probabilitatea de a răspunde
corect la toate cele patru întrebări se calculează ca produs al probabilităţii fiecărui
element al secvenţei de patru întrebări (regula multiplicării probabilităţii evenimentelor
dihotomice):0.5*0.5*0.5*0.5*=0.0625

5
Sau „distribuţie Bernoulli” , după numele matematicianului elveţian Jakob Bernoulli (1654-1705).

272
Constatăm astfel că, răspunzând absolut la întâmplare, probabilitatea de ghici toate
răspunsurile corecte este de 0.0625. Nu este o probabilitate foarte mare, dar este,
totuşi, mai mare decât nivelul alfa minim de 0.05, cu care ne-am obişnuit deja. Ca
urmare, suntem nevoiţi să acceptăm că cele patru răspunsuri corecte sunt mai degrabă
un rezultat al unor alegeri întâmplătoare decât al cunoştinţelor de statistică. Concluzia ar
fi că, dacă dorim să păstrăm tipul de întrebări cu două variante de răspuns, atunci va
trebui cel puţin să mărim numărul întrebărilor. Astfel, să zicem, vom ajunge în situaţia
de a ne pune problema dacă putem avea încredere într-un rezultat de 8 răspunsuri
corecte din 10 întrebări.

Dar pe măsură ce numărul alegerilor binare (cu două variante posibile de răspuns)
creşte, calcularea probabilităţii răspunsurilor întâmplătoare se complică. Din acest motiv
devine necesară o anumită formalizare a situaţiei. Distribuţia probabilităţilor pentru
evenimente dihotomice aleatoare alcătuieşte distribuţia binomială.

Ea prezintă interes ca distribuţie de nul pentru cazuri ca cele din exemplul de mai sus.
Având un eveniment cu doar două variante, fiecare cu şansă egală, (de ex.,
masculin/feminin, corect/greşit), vom nota cu P probabilitatea uneia dintre variante şi cu
Q probabilitatea variantei complementare. Întotdeauna P+Q=1, ceea ce face posibil să-l
descriem Q sub forma Q=1-P.

O distribuţie binomială se obţine pe baza unei secvenţe de predicţii de tip dihotomic,


independente între ele, pentru care valoarea lui P şi Q nu se modifică de la o predicţie la
alta. O astfel de selecţie este şi cea făcută de studentul care a indicat răspunsurile
corecte, dând cu banul la cele patru întrebări de statistică. Numărul total de predicţii (în
exemplul nostru, 4) este simbolizat cu N. Dată fiind relaţia dintre P şi Q, este suficient să
analizăm predicţia pentru unul dintre cele două evenimente posibile, să zicem pentru
răspunsurile „corecte”, deoarece probabilităţile pentru evenimentul complementar
(răspunsuri greşite) sunt absolut simetrice. Distribuţia binomială depinde, în acelaşi timp,
de valoare lui P şi a lui N.

Să analizăm variaţia predicţiilor pentru cele patru întrebări de statistică. Toate


combinaţiile posibile între răspunsurile corecte (C) şi eronate (E) se pot afla prin listarea

273
combinaţiilor şi permutările posibile (2*2*2*2=16) pentru cele patru întrebări(tabelul
9.1):

Tabelul 9.1. Combinaţiile posibile între răspunsurile corecte şi eronate la 4 întrebări cu răspuns dihotomic

CCCC CECC ECCC EECC


CCCE CECE ECCE EECE

CCEC CEEC ECEC EEEC

CCEE CEEE ECEE EEEE


Dacă analizăm toate cele 16 combinaţii posibile, vom observa că avem următoarea
distribuţie probabilă pentru răspunsurile corecte:

Tabelul 9.2. Frecvenţa răspunsurilor corecte pentru 4 întrebări cu răspuns dihotomic

Nr. răsp. 0 1 2 3 4
corecte
Frecvenţa 1 4 6 4 1
P(C)* 1/16=0.0625 4/16=0.25 6/16=0.375 4/16=0.25 1/16=0.0625
P(C) =Probabilitatea de apariţie a răspunsului corect

Transpuse grafic, probabilităţile corespunzătoare pentru frecvenţele de răspuns corect


se prezintă ca în figura 9.1.

Figura 9.1. Distribuţia binomială pentru N = 4

Cu alte cuvinte, în cazul alegerii întâmplătoare a unui răspuns din două posibile, pentru
patru întrebări, probabilitatea niciunui răspuns corect este egală cu aceea pentru patru
răspunsuri corecte (0.0625). Cea mai mare probabilitate o are situaţia de a rezulta două

274
răspunsuri corecte (0.375), în timp ce probabilitatea de a ghici 1 sau trei răspunsuri
corecte este de 0.25. Nu putem să nu observăm, de asemenea, forma simetrică a
distribuţiei3. În conformitate cu teorema Moivre-Laplace, distribuţia binomială a apariţiei
evenimentelor echiprobabile (P=Q=0.5) într-o serie de n de observaţii independente,
urmează forma distribuţiei normale. Sau, mai exact, după standardizarea probabilităţilor
acestea corespund valorilor de sub curba normală.

Dar ce s-ar întâmpla dacă, în loc de 4 întrebări, chestionarul nostru de statistică ar avea
12 întrebări? Distribuţia binomială pentru N=12 este cea din graficul de mai jos:

Figura 9.2. Distribuţia binomială pentru N = 12

Se observă creşterea corespunzătoare a numărului variantelor posibile şi, în acelaşi


timp, devine mai evidentă tendinţa distribuţiei de a semăna cu una normală. În mod
firesc, această tendinţă se accentuează pe măsură ce numărul secvenţelor de predicţie
creşte.

Dar sunt şi situaţii în care P şi Q nu sunt egale. De exemplu, dacă variantele de răspuns
la fiecare întrebare a chestionarului de statistică sunt în număr de patru, dintre care

numai una este corectă, atunci probabilitatea răspunsului corect (P) este ¼=0.25. În
acest caz distribuţia binomială nu este simetrică la valori mici ale lui N, dar tinde să devină
simetrică pe măsură ce N creşte. Nu există un răspuns exact cu privire la valoarea lui N
pentru care distribuţia binomială este aproximată suficient de bine de cea normală. În
general, se acceptă faptul că pentru P=0.5 N nu trebuie să fie mai mare de 20-25, în
timp ce pentru P apropiat de 0 sau 1 se impune o valoare pentru N de cel puţin 100.
275
Din cele spuse rezultă că se poate lua în considerare aproximarea distribuţiei binomiale
cu o distribuţie normală. Aceasta înseamnă că putem exprima valorile z în termeni de N,

P şi Q. Formula originală pentru z ne amintim că este:

din care, prin substituire, se construieşte formula pentru z binomial:

(Formula 9.1.)

Distribuţia binomială a fost descrisă de Abraham De Moivre în lucrarea „Approximatio ad


Summam Terminorum Binomii in Seriem Expansi”, publicată în 1733. Acelaşi autor a
publicat şi un manual pentru jucătorii de noroc, în care descrie principiile aritmetice pentru
strategiile şi probabilităţile de câştig.

Această formulă poate fi utilizată pentru a afla câtă încredere putem avea în cazul în
care am obţine 8 răspunsuri corecte la un chestionar cu 10 întrebări dihotomice:

Nivelul probabilităţii de sub curba normală z, pentru valori ale lui z egale sau mai mari de
1.897 este 0.0294. Aceasta înseamnă că putem respinge ipoteza de nul şi să admitem
că studentul nu a răspuns la întâmplare. Vom observa însă, că putem accepta această
concluzie numai dacă, anterior calculelor, am ales o decizie de tip unilateral, deoarece
pentru o decizie bilaterală ar fi fost necesar un nivel minim p=0.025. Oricum,
constatarea cea mai importantă în acest caz este aceea că utilizarea întrebărilor cu
răspuns dihotomic nu este recomandabilă, din cauza şansei prea mari de se obţine un
număr relativ ridicat de răspunsuri corecte prin alegeri întâmplătoare.

Să schimbăm puţin datele problemei şi să punem la fiecare întrebare nu două, ci patru


variante de răspuns, dintre care numai una este corectă. În acest caz, P=1/4=0.25 iar
Q=3/4=0.75. Considerând un chestionar format tot din 10 întrebări, cu 8 răspunsuri
corecte, şi utilizând formula 4.1, valoarea testului de semnificaţie este:

276
În aceste condiţii este evident că ipoteza de nul se respinge, iar ipoteza că răspunsurile
se bazează mai mult pe cunoştinţe decât pe hazard se acceptă. Fără să reluăm calculele,
putem să ne dăm seama că am obţine o valoare semnificativă chiar şi pentru un număr
mai mic de răspunsuri corecte. Desigur, acesta este un exemplu didactic, în practică
nefiind utilizate chestionare de cunoştinţe cu un număr atât de mic de întrebări.

9.1.1. Teste z pentru proporţii

9.1.2. Testul z pentru proporţia unui eşantion în raport cu populaţia

Odată ce am găsit o modalitate de elaborare a distribuţiei de nul pentru evenimente de


tip binomial, se pot elabora diverse teste de inferenţă statistică. Unul dintre acestea este
testul z pentru proporţii, care este echivalentul pentru date nominale al testului z
parametric pentru un singur eşantion.

Să ne imaginăm situaţia în care descoperim că, pe un eşantion aleator de 100 de


subiecţi dintr-o anumită comunitate, procentul stângacilor este de 20%, în timp ce
studiile la nivelul populaţiei generale indică un procent de stângaci de numai 15% . În
acest caz ne putem pune întrebarea dacă la nivelul acelei comunităţi există o „anomalie”
a lateralităţii.

Pentru a putea utiliza formula 9.2. pentru testarea directă a proporţiilor, o supunem
unei transformări convenabile, prin împărţirea simultană a numărătorului şi numitorului
cu N. Ca urmare, obţinem următoare formulă:

(Frmula 9.2)

unde: p (mic) este probabilitatea măsurată a evenimentului cercetat,

P (mare) este probabilitatea aceluiaşi eveniment la nivelul populaţiei, Q este


probabilitatea complementară a lui P, N este volumul eşantionului.
277
Pentru cazul nostru, valoarea testului z pentru proporţii se obţine astfel:

Nivelul lui p pentru z=1.42 pe curba normală este de 0.0778, valoare care obligă la
acceptarea ipotezei de nul. Cu alte cuvinte, proporţia stângacilor în comunitatea
cercetată nu depăşeşte semnificativ proporţia la nivelul populaţiei generale.

Testul z pentru proporţii implică testarea semnificaţiei unui procent observat în raport
procentul populaţiei (atunci când este cunoscut), pentru evenimente de tip dihotomic.
De exemplu, se poate răspunde la întrebarea dacă un procent de 55% de nou născuţi
băieţi este neobişnuit de mare, ştiind care este procentul general al noilor născuţi băieţi.

Pentru situaţiile în care evenimentele cercetate nu sunt de tip dihotomic, se aplică alte
teste statistice, despre care vom vorbi mai târziu.

9.1.3.Testul z pentru diferenţa dintre proporţiile a două eşantioane


independente

Să ne întoarcem la exemplul de mai sus, cu privire la proporţia stângacilor, şi să îl privim


din altă perspectivă. Un studiu pe două eşantioane din două ţări diferite conduce la
constatarea că proporţia (p1=0.15) a stângacilor eşantionului (n1=100) dintr-o ţară este
diferită de proporţia (p2=0.25) a stângacilor din eşantionul corespunzător celeilalte ţări
(n2=90). Este firesc să ne punem întrebarea dacă există într-adevăr o diferenţă dintre
proporţia stângacilor din cele două ţări (pe care o vom nota cu litere mari: P 1 respectiv
P2) sau dacă, dimpotrivă, diferenţele constatate sunt doar expresia variabilităţii de
eşantionare.
În acest caz:
- ipoteza cercetării susţine că proporţiile la nivelul populaţiilor sunt diferite (P 1≠P2)
- ipoteza de nul susţine că proporţiile celor două populaţii sunt identice (P 1=P2) şi, deci, că
diferenţa lor este 0 (P1-P2=0). În exemplul nostru, P 1 şi P2 reprezintă probabilităţile unui
eveniment aleator de tip binomial, în care evenimentul complementar (Q 1, respectiv Q2)

278
este caracteristica de a fi „dreptaci” (vom ignora acum faptul că pot exista şi
„ambidextri”).
Distribuţia ipotezei de nul pentru diferenţele dintre cele două proporţii este aproximată
de distribuţia normală z. Testul statistic va urma modelul testului pentru diferenţa dintre
mediile a două eşantioane independente:

(Formula 9.3)
unde:

p1 şi p2 sunt proporţiile evenimentului la nivelul eşantioanelor


P1 şi P2 sunt proporţiile evenimentului la nivelul populaţiei
σ(p1-p2) este eroarea standard a distribuţiei de eşantionare
Având în vedere ipoteza de nul (P 1-P2=0), rezultă că la numitor se va păstra doar
diferenţa dintre proporţiile eşantioanelor (p1-p2).

La rândul ei, eroarea standard de eşantionare a diferenţei proporţiilor se calculează


astfel:

(Formula 9.4)

unde:

q1 şi q2 sunt proporţiile complementare ale lui p 1, respectiv p2 (q1=1-p1, respectiv q2=1-


p2), n1 şi n2 sunt volumele celor două eşantioane.

Ca urmare, formula pentru testul diferenţei dintre proporţiile a două eşantioane


independente devine:

(Formula 9.5)

279
Această formulă este adecvată atunci când eşantioanele sunt suficient de mari (>30). În
caz contrar, numărătorul formulei suportă o corecţie, după cum urmează:

(Formula 9.6)

Pentru exemplul nostru, vom utiliza formula 9.5.


Dacă ne-am propus un test bilateral la un nivel alfa=0.05 (pentru care z critic pe curba

normală este egal cu 1.96), atunci va trebui să acceptăm ipoteza de nul şi să


concluzionăm că nu se confirmă existenţa unei diferenţe semnificative între proporţia
stângacilor din cele două comunităţi.

9.1.4.Testul semnului

Ne amintim că unul dintre modelele uzuale de cercetare în psihologie este cel care se
bazează pe eşantioane perechi (corelate sau dependente), în care este evaluată o
anumită variabila de două ori pentru aceiaşi subiecţi (sau perechi de subiecţi). Dacă
rezultatul măsurării este exprimat pe o scală de interval/raport, atunci diferenţa dintre
cele două momente (situaţii) se verifică cu ajutorul testului t pentru eşantioane
dependente. Ce ne facem, însă, dacă nu dispunem de posibilitatea unei măsurări la nivel
cantitativ şi suntem nevoiţi să observăm doar sensul variaţiei de la un moment la altul?
Soluţia acestei probleme a fost găsită în anul 1710 de John Arbuthnot 6, medicul personal
al reginei Anna a Angliei, primul care a utilizat testul semnului în analiza retrospectivă,
pe o perioadă de 82 de ani, a raportului naşterilor de băieţi şi fete (13/12), înregistrate la
primăria Londrei.

Să ne imaginăm următoarea situaţie de cercetare: un psiholog clinician aplică o metodă


de reducere a manifestărilor de tip fobic la un grup de 8 de subiecţi. După un număr de
6 4
Arbuthnot, John. (1710), "An Argument for Divine Providence, Taken From the Constant
Regularity Observed in the Births of Both Sexes," Philosophical Transactions, 27, 186-190.
280
şedinţe el doreşte să afle dacă metoda lui este eficientă şi îi întreabă pe cei 8 subiecţi
dacă se simt mai bine decât la începutul tratamentului. Răspunsurile arată că 6 dintre ei
afirmă că se simt mai bine iar 2, că nu simt nici o modificare (să admitem că nimeni nu
a răspuns că se simte mai rău).

În acest caz ipoteza cercetării susţine că metoda are efect, ceea ce înseamnă că
procentul de ameliorare este semnificativ mai mare decât cel al absenţei oricărui efect al
terapiei. Ipoteza de nul este opusul ei, fapt care se exprimă prin echivalenţa celor două
evenimente posibile (eficienţa/ineficienţa terapiei) şi se formalizează ca P=Q=0.5.

Având o probabilitate de 6/8=0.75 pentru evenimentul „ameliorare”, se poate afirma că


acesta este semnificativ diferit de cel al ipotezei de nul (0.5)?

Pentru a verifica ipoteza, se utilizează formula 9.1:

Deşi, principial, este corectă, se impune o anumită corecţie a acestei formule, corecţie utilă
mai ales pentru valori mici ale lui N. Dacă privim graficele distribuţiilor binomiale
prezentate anterior vom observa că, spre deosebire de curba normală z, acestea au un
caracter „discontinuu”, cu treceri în „trepte” la o valoare la alta. Din acest motiv se
recomandă aplicarea unei „corecţii de continuitate”, prin scăderea valorii 0.5 din valoarea
numărătorului, luată în sens absolut. Formula definitivă devine astfel:

Mai departe, nu ne rămâne decât să înlocuim valorile şi să facem


calculele pentru studiul nostru:
(Formula 9.7)

281
282
Căutăm apoi, valoarea lui p corespunzătoare pentru z=-0.40 în tabelul distribuţiei
normale z, unde găsim p=0.844(Anexa 1). Dat fiind faptul că valoarea lui p este mai
mare decât 0.05, suntem nevoiţi să acceptăm ipoteza de nul şi să conchidem că, cel
puţin până în acel moment, terapia antifobică nu are un efect semnificativ statistic pe
lotul aflat în tratament. Desigur, rezultatul nu trebuie să fie considerat neapărat ca
descurajant de către terapeut. Faptul că lotul investigat este atât de redus conduce în
mod inevitabil la nevoia unor valori foarte ridicate ale testului statistic pentru atingerea
pragului de semnificaţie. În cazul nostru rezultatul poate fi considerat încurajator dacă,
să zicem, evaluarea eficienţei s-a făcut după un număr relativ mic de şedinţe de terapie.
Continuarea lor şi refacerea testului ar putea conduce la o altă concluzie.

Testul semnului (denumit astfel pentru că ia în considerare doar sensul variaţiei, nu şi


valoarea ei) este utilizabil ca substitut al testului t pentru eşantioane dependente în
cazul datelor măsurate pe scală nominală dihotomică.

9.1.4. Rezumat

1.Distribuţia binomială rezultă în urma unei serii de evenimente independente,


dihotomice (prezintă două stări posibile). De exemplu, fiecare naştere este un
eveniment independent de orice altă naştere, iar nou născuţii pot lua două „stari”: băiat
sau fată. Probabilitatea fiecărei stări este notată cu P, respectiv, Q, care sunt
complementare (P+Q=1; Q=1-P).
2.Fiecare eveniment simplu este denumit convenţional „încercare”. Naşterile dintr-o
anumită perioadă, localitate etc., sunt „încercări”, iar totalul „încercărilor” este simbolizat
cu N.
3.Atunci când P şi Q sunt egale (P=Q=0.5), distribuţia binomială este simetrică. Cu cât
N este mai mare, cu atât forma distribuţiei se apropie mai mult de distribuţia normală.
Chiar şi atunci când P şi Q nu sunt egale (P≠Q) distribuţia tinde spre forma normală
dacă N ia valori din ce în ce mai mari (spre infinit).

283
4.Distribuţia binomială fundamentează următoarele teste statistice: testul z pentru
diferenţa proporţiei unui eşantion faţă de proporţia populaţiei; testul z pentru diferenţa dintre
două proporţii (pentru eşantioane independente) şi testul semnului (pentru eşantioane
dependente).
5.Testul z pentru diferenţa dintre proporţii poate fi utilizat în două situaţii:
pentru compararea proporţiei unui eşantion cu proporţia la nivelul populaţiei (de ex.,
procentul fumătorilor dintr-o anumită categorie de vârstă, comparativ cu procentul
fumătorilor din populaţia generală);pentru compararea a două proporţii măsurate
pe două eşantioane independente (de ex., procentul fumătorilor din rândul bărbaţilor şi
al femeilor, dintr-o anumită instituţie).

6.Testul semnului se utilizează atunci când sunt comparate date dependente(măsurate


pe acelaşi eşantion), dar nu poate fi măsurată cantitatea, ci doar direcţia (semnul)
diferenţei. De asemenea, poate fi utilizat ca alternativă a testului t pentru eşantioane
dependente, atunci când măsurarea este de nivel cantitativ, dar volumul eşantionului
este foarte mic, ceea ce nu susţine condiţia de normalitate a distribuţiei.
7.Atunci când N nu este foarte mare, utilizarea distribuţiei normale pentru aproximarea
distribuţiei binomiale introduce o eroare sistematică care poate fi compensată prin
corecţia de continuitate, extrăgând 0,5 din valoarea absolută a diferenţei de la
numărătorul scorului z.

9.1.5. Exerciţii

(1)Presupunând că 85% din populaţie este dreptace (Q) şi că 15% este stângace (P):
a. Dacă 27 din cei 120 de copii dintr-o şcoală de artă sunt stângaci, care este
scorul z pentru testarea ipotezei?
b. Pe baza scorului z de la punctul a putem concluziona că frecvenţa stângacilor
printre copiii cu aptitudini artistice este mai mare decât la nivelul populaţiei?
(alfa=0.05, bilateral)

(2)Două grupuri de subiecţi, fiecare compus din 30 de persoane, participă la un


284
experiment în care este studiat efectul stresului temporal asupra performanţei de
rezolvare de probleme. Primul grup are un termen limită iar celalalt, nu are un termen
limită. Rezultatele cercetării arată că 25% dintre subiecţii grupului care a lucrat în criză
de timp au rezolvat problema, în timp ce pentru grupul fără criză de timp, procentul
rezolvărilor corecte este de 60%. Se poate afirma că stresul temporal reduce
performanţa în rezolvarea de probleme? (alfa=0.05, bilateral)

(3)Şase studenţi de la facultatea de arte plastice au fost puşi să picteze două tablouri,
pe o temă imaginară. Într-un caz au lucrat în condiţii de linişte, în cel de-al doilea caz au
avut un fond sonor de muzică clasică. Lucrările lor au fost evaluate de un profesor, care
a apreciat că 5 dintre studenţi au pictat mai creativ în condiţii de muzică decât în condiţii
de linişte. Se poate concluziona că muzica clasică favorizează creativitatea artistică,
pentru alfa=0.05, bilateral?
(Verificaţi răspunsurile corecte la secţiunea 14. Rezolvări şi explicaţii la
exerciţiile din volum, Capitolul 9, exerciţiile 9.1.5)

9.2. Distribuţia multinomială


Evenimentele de tip binomial se caracterizează prin caracterul dihotomic, putând lua
doar două valori. Există însă şi evenimente care pot lua mai mult de două valori posibile
(trei sau mai multe). De exemplu, dacă presupunem că există doar trei tipuri de liceu,
atunci absolvenţii de liceu, ar putea face parte dintr-una din următoarele categorii:
„umanist”, „real”, „artistic”. Dacă raportăm frecvenţa de apariţie a fiecărei categorii
(numărul subiecţilor care au absolvit un anumit tip de liceu) la totalul subiecţilor,
probabilităţile aferente fiecărui tip de liceu sunt, respectiv, P, Q şi R. Într-o asemenea
situaţie P+Q+R=1. Pe această bază, putem scrie probabilităţile pentru fiecare
„eveniment” după modelul: Q=1-P-R.

Să luăm în considerare situaţia în care toate liceele ar avea acelaşi număr de absolvenţi.
In acest caz, P=Q=R=1/3=0.33 (alegerea unor ponderi diferite, aşa cum este şi cazul în
realitate, nu ar schimba datele raţionamentului care urmează, dar l-ar face mai puţin
evident). Mai departe, să ne imaginăm că analizăm tipul de liceu absolvit de studenţii

285
unei facultăţi de psihologie şi constatăm că din 100 de studenţi 60 sunt absolvenţi de
liceu „umanist”, 30 au absolvit un liceu cu profil „artistic” şi 10, unul cu profil „real”.
Ponderea studenţilor la facultatea respectivă este, evident, diferită de ponderea din cadrul
populaţiei de absolvenţi. Pe baza acestor date, se poate afirma că absolvenţii de profil
„umanist” şi „artistic” preferă psihologia mai mult decât care au absolvit un profil „real”?
Sau, într-o formulare mai largă, se poate afirma că există o relaţie între tipul de liceu
absolvit şi preferinţa pentru psihologie ca specialitate universitară?

Înainte de a răspunde la această întrebare, să analizăm puţin datele sugerate de


exemplul de mai sus. Aşa cum am spus, numărul studenţilor la facultatea de psihologie
este, în funcţie de tipul de liceu absolvit, de 60, 30, respectiv, 10. Aceste valori se
numesc „frecvenţe observate” sau „frecvenţe calculate” (notate cu fo de la Observed),
fiind rezultatul măsurării în contextul cercetării. Dacă preferinţa pentru facultatea de
psihologie nu ar fi în legătură cu liceul absolvit (ipoteza de nul), atunci cercetarea ar
trebui să consemneze un număr egal de studenţi provenind din fiecare tip de liceu. În
exemplul dat, acest număr ar trebui să fie, pentru fiecare tip de liceu 100/3=33.3, care
se numeşte „frecvenţă teoretică” sau „frecvenţă aşteptată” (notată cu fe de la Expected).
Este uşor de intuit faptul că, cu cât frecvenţele calculate (reale) sunt mai îndepărtate de
cele aşteptate (teoretice), cu atât ele se apropie de situaţia de a fi „semnificativ diferite”
de acestea. Mai departe, nu ne rămâne decât să găsim o procedură pentru calcularea
distanţei dintre cele două tipuri de frecvenţe şi un model de distribuţie pentru rezultatul
acestui calcul, în raport cu care să putem lua o decizie cu privire la ipoteza de nul.

Datele din exemplul dat nu mai pot fi analizate prin prisma distribuţiei binomiale
deoarece implică mai mult decât două „evenimente” posibile. De aceea, distribuţia
acestora se numeşte „distribuţie multinomială”. Desigur, procedura de calcul pentru
acest caz ar putea urma modelul celei binomiale dar, din cauza complexităţii acestei
soluţii, s-a apelat la o soluţie mai simplă. Aceasta este fundamentată pe o aproximare
derivată din formula binomială a lui z, care este pur si simplu ridicată la pătrat,
devenind:

286
(Formula 9.8)
Dacă înainte de ridicarea la pătrat z urmează o distribuţie normală, după ridicarea la
pătrat z urmează un alt tip de distribuţie, numită „chi-pătrat”, simbolizată cu litera
grecească χ, cu indicele de ridicare la pătrat (χ 2). Valorile distribuţiei χ2 se calculează ca
raport dintre frecvenţele observate şi cele teoretice, iar caracteristicile ei esenţiale sunt
următoarele:

-este, la fel ca distribuţia normală, o familie de distribuţii;


-are formă asimetrică;
-are originea în zero (din cauza ridicării la pătrat);
-are o formă dependentă de numărul de grade de libertate.
Figura 9.3. prezintă mai multe distribuţii chi-pătrat, pentru diferite grade de libertate
(vom vedea mai târziu cum se calculează acestea).

Figura 9.3. Curbele distribuţiilor chi-pătrat pentru 1, 2, 4, 6 şi 10 gradede libertate

9.2.1. Tabelul de corespondenţă (contingenţă) pentru date nominale

Înainte de a trece la testul propriu-zis, este util să aruncăm o privirea asupra modului de
organizare a datelor pentru o situaţie similară exemplului de mai sus. În acest scop,
putem să ne permitem o lărgire a cadrului de investigare. Să presupunem că avem cele
trei categorii de liceu şi ne interesează distribuirea lor, nu în legătură cu o singură

287
facultate (cea de psihologie), ci în legătură cu trei tipuri de facultăţi: „umaniste”,
„artistice” şi „tehnice”.

Dacă realizăm un cadru de reprezentare sintetic al valorilor celor două variabile, obţinem
ceea ce se numeşte un tabel de corespondenţă. Iată cum ar arăta un astfel de tabel,
pentru un set de date ipotetice:

Tabelul 9.3. Tabelul de corespondenţă între tipul de liceu absolvit şi tipul de facultate

Liceu Liceu real Liceu Total pe linii


umanist artistic
Facultăţi umaniste 45 20 30 95
Facultăţi tehnice 14 60 12 86
Facultăţi artistice 20 13 50 83
Total pe coloane 79 93 92 264
Acesta este un tabel de corespondenţă pentru două variabile nominale, fiecare având
câte trei valori distincte (categorii) 7. Valorile din celule reprezintă numărul de cazuri
(frecvenţele observate) care corespund fiecărei combinaţii dintre categoriile celor două
variabile. „Totalul pe linii” exprimă numărul de studenţi din fiecare facultate, consemnaţi
în cercetare, indiferent de tipul de liceu absolvit, „totalul pe coloane”, exprimă numărul
de absolvenţi din fiecare tip de liceu, indiferent de facultatea la care sunt înscrişi, iar la
intersecţia celor două totaluri regăsim totalul general al subiecţilor cercetării (N=264).

9.2.2. Fundamentarea testului statistic

Având un număr de 95 de studenţi în „facultăţi umaniste”, această înseamnă că ei


reprezintă 36% din totalul subiecţilor cercetării (95/264*100=36). Acest procent indică
se referă la absolvenţii care au ales o facultate de tip umanist, indiferent de liceul
absolvit. În mod similar, calculăm procentele corespunzătoare celorlalte tipuri de
facultăţi. Valorile astfel calculate, pentru fiecare linie a tabelului, se numesc frecvenţe
marginale.

7
În mod similar, se pot crea tabele de corespondenţă pentru variabile categoriale având, fiecare, un
număr diferit de valori (categorii)

288
Dacă alegerea facultăţii nu ar avea nici o legătură cu tipul de liceu absolvit atunci, în mod
normal, ar trebui să regăsim, pentru fiecare tip de liceu, acelaşi procent care exprimă
ponderea studenţilor din fiecare facultate în totalul subiecţilor cercetaţi. Având procentele
studenţilor din fiecare facultate şi numărul absolvenţilor din fiecare tip de liceu, putem
calcula frecvenţele „teoretice” (aşteptate) pentru fiecare celulă a tabelului. De exemplu,
dintre cei 79 de absolvenţi de liceu umanist consemnaţi de cercetare, 36% ar trebui să se
afle în facultăţi umaniste, ceea ce înseamnă: (79*36)/100=28.4. În mod similar, ar
trebui să avem 32.5% (25.6) în facultăţi ştiinţifice şi 31.5% (24.8) în facultăţi artistice.
Acelaşi raţionament se aplică mai departe şi celorlalte tipuri de liceu, cu utilizarea
procentului corespunzător fiecărei facultăţi. Precizăm că frecvenţele teoretice (aşteptate)
vor fi aceleaşi, în fiecare celulă, chiar dacă vor fi calculate pe baza frecvenţelor marginale
de pe coloane.

Tabelul 9.4. Calcularea frecvenţelor teoretice

Liceu Liceu Liceu Total


% pe linii
umanist real artistic pe linie
45 20 30 (95/264)* 100=36%
Facultăţi umaniste 95
(28.4) (33.4) (33.1)
14 60 12 (86/264)* 100=32,5%
Facultăţi tehnice 86
(25.6) (30.2) (29.9)
20 13 50 (83/264)* 100=31.5%
Facultăţi artistice 83
(24.8) (29.2) (28.9)

Total pe coloană 79 93 92 N=264


Aşa cum constatăm, între frecvenţele observate şi cele aşteptate sunt diferenţe. Suma
frecvenţelor aşteptate (teoretice) este egală cu suma frecvenţelor observate (poate
rezulta o anumită diferenţă între totaluri, ca urmare a aproximării zecimalelor).

În final, problema cercetătorului este aceea de a stabili dacă între frecvenţele observate
şi cele teoretice (calculate) este o diferenţă care să justifice aprecierea că între cele
două variabile există sau nu o legătură. Datele de acest gen nu mai pot fi analizate prin
prisma distribuţiei binomiale, deoarece implică mai mult decât două „evenimente”

289
posibile. De aceea, distribuţia acestora se numeşte „distribuţie multinomială”. Desigur
procedura de calcul pentru acest caz ar putea urma modelul celei binomiale dar, din
cauza complexităţii ei, s-a apelat la o soluţie mai simplă. Această soluţie este
fundamentată pe o aproximare derivată din formula binomială a lui z, care este pur si
simplu ridicată la pătrat, devenind:

(Formula 9.8 )

este, la fel ca şi distribuţia normală, o familie de distribuţii;

are formă asimetrică;


are originea în zero (din cauza ridicării la pătrat);
are o formă dependentă de numărul de grade de libertate.
La fel ca şi distribuţiile t şi F, distribuţia χ 2 este dependentă de numărul gradelor de
libertate. Acestea se calculează pe baza tabelului de corespondenţă dintre cele două
variabile, astfel:

df=(număr coloane-1)*(număr linii-1)

Formula de calcul pentru testul chi-pătrat, derivată din formula 9.8, este :

(Formula 9.9)

unde fO este frecvenţa observată, iar fE, frecvenţa aşteptată.

Decizia pentru testul chi-pătrat se bazează pe compararea valorii calculate cu o valoare


critică, corespunzătoare nivelului alfa ales (0.05 sau, opţional, mai mic). Valorile critice
pentru distribuţia chi-pătrat se găsesc într-o tabelă specială (vezi anexa). Dacă valoarea
calculată a lui χ2 este egală sau mai mare decât valoarea critică pentru nivelul ales al lui
alfa, atunci ipoteza de nul poate fi respinsă, iar ipoteza cercetării confirmată.

290
Pe această structură formală se bazează două variante distincte ale testului chi-pătrat:
testul corespondenţei (Goodness of Fit) şi testul asocierii. Primul, compară frecvenţele
observate ale valorilor unei singure variabile cu frecvenţele aşteptate pentru acele valori.
Al doilea, compară frecvenţele valorilor observate pentru două variabile cu frecvenţele
lor aşteptate, cu scopul de a testa relaţia (asocierea) dintre cele două variabile.

9.2.3. Chi-pătrat pentru gradul de corespondenţă (Goodness of Fit)

Această variantă a testului chi-pătrat compară frecvenţele observate ale unei distribuţii
cu frecvenţele teoretice (aşteptate) ale acelei variabile. De exemplu, dacă avem
frecvenţele unei variabile putem afla dacă aceasta se distribuie după curba normală (z),
prin compararea cu frecvenţele cunoscute ale acestei distribuţii (aria de sub curbă).

Să presupunem că a fost aplicat un test de cunoştinţe unui eşantion de 200 de elevi,


care a fost evaluat cu calificative, astfel: F.Slab, Slab, Mediu, Bun, F.Bun.

Problema cercetării: Calificativele obţinute se distribuie normal la nivelul clasei?

Populaţia 1: Calificativele obţinute de elevi.

Populaţia 2: Calificativele, aşa cum s-ar distribui pe o curbă normală: FS=2.5%,

B=14%, M=67%, B=14% şi FB=2.5% (procentele sunt cele tipice unei curbe z,

împărţite în cinci clase valorice).

Ipoteza cercetării (H1): Distribuţia calificativelor urmează legea curbei normale la nivelul
eşantionului de elevi.
Ipoteza de nul (H0): Distribuţia calificativelor nu urmează legea curbei normale în rândul
elevilor examinaţi.
Determinarea caracteristicilor deciziei statistice:

-alegem α=0.05 (în cazul testului χ2 decizia nu poate fi decât unilaterală, deoarece acest
test nu poate lua valori negative);
-găsim valoarea critică pentru χ2=9.48 în tabela pentru distribuţia χ2, pentru df=(2-
1)*(5-1)=4 şi α=0.05
Tabelul următor conţine datele de cercetare şi algoritmul de calcul:

291
Tabelul 9.6. Calcularea testului chi-pătrat(goodness of fit)

Decizia statistică:

χ2 calculat (18,33) este mai mare decât χ2 critic (9,48)


Respingem ipoteza de nul şi tragem concluzia că distribuţia calificativelor urmează forma
curbei normale.
Concluzia statistică poate fi interpretată, în acest caz, ca fiind negativă din punctul de
vedere al eficienţei procesului didactic. În mod normal, dacă activitatea de învăţare ar fi
eficientă, rezultatele elevilor ar trebui să se distribuie asimetric negativ, adică cu
tendinţă de grupare a valorilor spre calificativele superioare. Rezultatele procesului de
învăţare nu se distribuie „normal”, nefiind un proces „natural”, ci unul în care valorile
(calificativele) sunt supuse unei influenţe sistematice (prin efortul profesorilor şi al
elevilor înşişi) înspre valorile mari.

Facem, încă o dată, precizarea că această formă a testului chi-pătrat se aplică atunci
când vrem să comparăm frecvenţe observate cu frecvenţe teoretice (aşteptate), pe care
le cunoaştem deja. El este echivalentul testului z pentru proporţii pentru distribuţia

292
binomială, cu specificaţia că se utilizează atunci când avem mai mult de două categorii.
Testul chi-pătrat pentru gradul de corespondenţă (goodness of fit) nu are un indice de
mărime a efectului.

Iată câteva exemple posibile de cercetări ale căror date pot fi analizate cu testul chi-
pătrat al gradului de corespondenţă:

1.Vrem să ştim dacă există o preferinţă pentru o anumită categorie de muzică (clasică,
populară, pop-rock). În acest caz, dacă distribuţia preferinţelor nu ar fi influenţată de
nici o anumită preferinţă (ipoteza de nul) atunci frecvenţa aşteptată (teoretică) pentru
fiecare gen muzical ar trebui să fie echivalentă cu 100/3=33.3% numărul subiecţilor. Mai
departe, nu ne rămâne decât să testăm diferenţa dintre cele două categorii de frecvenţe
(teoretice şi observate), conform modelului de calcul de mai sus.
2.Într-un studiu asupra relaţiei dintre atractivitate şi preferinţa pentru profesori, unui
număr de studenţi li se prezintă fotografiile preselectate ale unor şase potenţiali
profesori, ale căror portrete sugerează grade diferite de atractivitate, şi li se cere să
aleagă dintre aceştia pe cel pe care ar dori să îl aibă ca profesor. Dacă gradul de
atractivitate nu are nici un impact asupra preferinţei ca profesor, atunci frecvenţele cu
care sunt alese fotografiile ar trebui să fie egale (100/6=16.6%).
3.Într-un studiu de marketing, o companie trebuie să aleagă dintre patru propuneri de
imagini. Acestea sunt prezentate unui eşantion de subiecţi şi se consemnează numărul
de preferinţe exprimate pentru fiecare imagine. Dacă toate ar avea acelaşi impact,
atunci numărul de preferinţe ar trebui să fie egal (25%, pentru fiecare imagine).

9.2.4. Chi-pătrat - testul asocierii (independence chi-square)8

Această variantă a testului chi-pătrat este mai frecvent utilizată. Ea compară frecvenţele
observate ale unei distribuţii (variabile) cu frecvenţele corespondente ale altei distribuţii
(variabile), ambele măsurat pe scale de tip categorial, cu scopul de a vedea dacă există
o asociere între cele două variabile.

8
Cunoscut şi sub numele „testul chi-pătrat Pearson al asocierii”, a fost elaborat de Karl Pearson

293
Să presupunem că avem rezultatele la testul de statistică (măsurate pe o scală ordinală
şi notate, convenţional, cu A, B, C, D, E, unde A reprezintă nivelul de performanţă cel
mai ridicat iar E, cel mai scăzut).

Problema cercetării: Dorim să aflăm dacă există o diferenţă semnificativă între băieţi (M)
şi fete (F) la testul de statistică.

Ipoteza cercetării: Distribuţia performanţei depinde de genul „masculin” sau „feminin”.

Ipoteza de nul: Rezultatele la testul de statistică nu au legătură cu variabila sex.

Determinarea criteriilor de decizie statistică:

-alegem α=0.05
-df=(2-1)*(5-1)=4
-citim valoarea critică pentru χ2 în tabela pentru distribuţia χ2 (Anexa 6):
-χ2critic= 9.49
Datele cercetării ar putea fi astfel centralizate în următorul tabel de corespondenţă:

Tabelul 9.7. Tabelul de corespondenţă ale performanţelor la testul de statistică în funcţie de genul
studenţilor(M/F)

Performanţa la test

A B C D F Total

Masculin 10 34 140 10 6 200 = 57.14% din total


general

Feminin 10 32 97 6 5 150 = 42.86% din total


general
Total 20 66 237 16 11 Total general=350

Frecvenţele marginale sunt: 200 (57.14%) pentru „băieţi” şi 150 (42.86%) pentru „fete”
Dacă performanţa la test nu are nici o legătură cu genul subiecţilor, trebuie să regăsim
aceste procente pentru fiecare dintre calificativele acordate.

294
Aceasta înseamnă că, teoretic, în celula A/Masculin, ar trebui să găsim, proporţional, tot
atâţia băieţi câţi sunt pe întregul lot (57.14%). Adică (20*57.14)/100=11.42, care
reprezintă frecvenţa aşteptată pentru celula respectivă din tabelul de corespondenţă.
La fel, pentru celula A/Feminin ar trebui să avem 42.86% din totalul pentru „feminin”,
adică: (20*42.86)/100=8.52. În acelaşi mod de calculează frecvenţele observate pentru
fiecare celulă a tabelului. Pentru o mai uşoară înţelegere a mecanismului de calcul, vom
rearanja tabelul 9.8. astfel:

295
Tabelul 9.8. Tabelul 9.7. Calcularea gradului de corespondenţă ale performanţelor la testul de statistică
în funcţie de genul studenţilor(M/F)

296
Este recomandabil ca frecvenţa aşteptată să nu ia valori mai mici de 5 (sau, cel puţin, în
nu mai mult de 20% din celule).
Nici o celulă nu trebuie să aibă frecvenţa aşteptată mai mică de 1.
Pentru situaţiile în care frecvenţele aşteptate sunt mai mici decât specificaţiile de mai sus,
sau atunci când tabelul de corespondenţă dintre variabile are două linii şi două coloane,
se recomandă aplicarea unei corecţii la formula de bază. Aceasta se numeşte „corecţia
Yeates” şi constă în scăderea unei constante (0.5) din expresia de la numărător, luată în
valoare absolută:

(Formula 9.10)

9.2.6. Utilizarea testului chi-pătrat al asocierii

Testul chi-pătrat al asocierii se utilizează atunci când dorim să testăm relaţia


dintre două variabile, ambele măsurate pe scală de tip categorial. Facem
precizarea că variabilele categoriale deşi sunt, de regulă, de tip nominal, pot fi
atât ordinale cât şi de interval sau de raport. Ceea ce caracterizează o variabilă
categorială nu este atât scala de măsurare, cât faptul că primeşte puţine valori,
care împart distribuţia în categorii de valori. De exemplu, într-un studiu cu privire
la relaţia dintre gravitatea accidentelor de circulaţie („fără răniţi”, „cu răniţi uşor”,
„cu răniţi grav”, „cu morţi”) şi puterea motoarelor (1400 cm 3, 1600 cm3, 2000 cm3,
2500 cm3, 3000 cm3), ambele variabile sunt de tip categorial, dar prima este pe
scală nominală, iar a doua pe scală cantitativă.
Testul chi-pătrat al asocierii (independenţei) poate fi văzut ca un veritabil test de
corelaţie pentru date categoriale. De asemenea, poate fi folosit în locul testului t sau
ANOVA, dacă nu sunt îndeplinite condiţiile pentru variabila dependentă. Într-un
asemenea caz, variabila dependentă cantitativă se transformă, prin gruparea în
297
frecvenţe, în variabilă de tip categorial. Această opţiune se va alege numai dacă ne aflăm
în faţa unei flagrante violări a condiţiei de normalitate, deoarece testele parametrice au
o putere mai mică decât cele neparametrice. La fel ca şi în cazul altor teste statistice, nu
se vor putea trage concluzii de tip cauzal decât numai dacă variabilele sunt măsurate în
contextul unui experiment psihologic.

9.2.7. Mărimea efectului pentru testul chi pătrat al asocierii

Coeficientul φ (fi)
Atunci când utilizăm testul pentru asocierea variabilelor, valoarea χ2 certifică faptul că
cele două variabile sunt relaţionate. Dar mărimea lui χ2 nu ne spune nimic cu privire la
intensitatea relaţiei dintre variabile. De fapt, mărimea lui χ2 este în funcţie de N. Dacă
multiplicăm frecvenţele celulelor cu o constantă, valoarea lui χ2 se multiplică şi ea cu acea
constantă, singura consecinţă fiind aceea că se diminuează probabilitatea ca valoarea
respectivă să fie obţinută din întâmplare. Pentru completarea interpretării valorii χ 2 este
necesar un indicator suplimentar, care să ne spună ceva şi despre intensitatea legăturii,
nu doar despre semnificaţia acesteia. Un astfel de indicator este coeficientul φ (fi), care
se calculează pentru asocierea variabilelor care prezintă fiecare doar două valori posibile
(tabele de contingenţă 2x2).

Formula după care se calculează este:

(Formula 9.11)

Coeficientul φ Cramer
Coeficientul φ este adecvat doar pentru tabelele de contingenţă de tip 2x2, când ambele
variabile sunt dihotomice. O uşoară modificare a acestuia, denumită φ Cramer, îl face
utilizabil pentru intensitatea asocierii dintre variabile având un număr diferit de categorii.

Indicele Cramer se calculează după formula:

298
(Formula 9.12)
unde:

N este volumul eşantionului


L este valoarea cea mai mică dintre numărul liniilor sau al coloanelor tabelului de
corespondenţă (de exemplu, pentru un tabel de corespondenţă 4x3 - patru linii şi patru
coloane - L are valoarea 3-1=2).
În cazul coeficienţilor φ, dacă frecvenţele fiecărei celule din tabelul de corespondenţă sunt
multiplicate cu o constantă, atât χ2 cât şi N cresc concomitent, iar valoarea coeficientului
φ rămâne aceeaşi. Coeficientul φ se modifică numai dacă se modifică şi raporturile
dintre proporţii, ceea ce înseamnă că mărimea lui nu este influenţată de N. El reprezintă
un indicator numeric al intensităţii relaţiei şi poate lua valori între zero - absenţa relaţiei şi
unu - relaţie perfectă între cele două variabile. De exemplu, pentru testul chi-pătrat al
asocierii dintre gen şi performanţa la testul de statistică (care a rezultat nesemnificativ),
al cărui tabel de corespondenţă este de forma 2x5, valoarea coeficientului φ c este:

Interpretarea coeficienţilor φ
Valoarea coeficientului φ se asociază interpretării testului chi-pătrat, atunci când acesta
este semnificativ, pentru a adăuga o informaţie suplimentară cu privire la intensitatea
relaţiei. Prin ridicarea la pătrat a expresiei de calcul, coeficientul φ 2 poate fi interpretat
procentual, la fel ca şi coeficientul de determinare (r 2), indicând proporţia variaţiei unei
variabile determinată de variaţia celeilalte variabile. În cazul nostru, numai 0.4%
(0.072*100) din variaţia calificativelor la testul de statistică este explicată prin diferenţa
de gen (masculin/feminin), ceea ce, în conformitate cu decizia statistică, s-a dovedit a fi
nesemnificativ.
299
În conformitate cu recomandările lui Cohen, cit. de Kotrlik şi Williams (2003), valorile lui
φ vor fi interpretate după cum urmează:

Tabelul 9.8. Grila de interpretare a mărimii efectului pentru testul chi-pătrat

0.10 efect mic

φ (Cohen) 0.25 efect mediu


0.40 efect mare

9.2.8. Raportarea rezultatului

În cazul testului χ2 elementele care vor fi incluse în raport sunt următoarele: gradele de
libertate, valoare testului, nivelul p şi coeficientul φ sau Cramer φ. În varianta narativă,
pentru exemplul de mai sus, prezentarea rezultatelor ar putea avea următoarea formă:

„Rezultatele testului de statistică, evaluate pe cinci clase valorice (A,B,C,D,E) au fost


comparate pe sexe. Testul χ2 pentru asocierea variabilelor indică faptul că rezultatele nu
diferă semnificativ în funcţie de gen, χ2(4) = 1.85, p >0 .05, cu un coeficient φ=0.07,
care indică o asociere slabă”.

În cazul în care testul ar fi fost semnificativ, raportarea rezultatelor ar fi trebuit să


conţină şi referinţe cu privire la procentele consemnate în celulele tabelului de
corespondenţă, astfel încât să fie scoase în evidenţă diferenţele releavnte dintre
categoriile comparate.

9.2.9. Testul exact Fisher

Aşa cum am precizat, testul chi-pătrat este calculat pe baza unei formule ale cărei
rezultate nu urmează cu maximă precizie distribuţia χ2. Dacă în cele mai multe situaţii
acest lucru nu reprezintă un neajuns notabil, sunt si cazuri în care rezultatele pot fi
alterate suficient de mult pentru a putea fi luate în considerare:

-atunci când volumul eşantionului este redus (N<20);


-atunci când valorile fe pentru una sau mai multe dintre celulele tabelei de
corespondenţă sunt foarte mici.

300
În aceste situaţii, precum şi atunci când tabelul de corespondenţă este compus din două
linii şi două coloane, este recomandabilă utilizarea testului exact Fisher. El se bazează pe
calcularea tuturor tabelelor posibile ce pot fi construite pentru frecvenţele marginale.
Deoarece necesită un mare volum de calcule, testul exact Fisher se efectuează numai cu
ajutorul programelor computerizate.

9.2.10. Rezumat

1. Dacă evenimentele probabilistice au mai mult de două valori, probabilitatea cu care


fiecare eveniment cade într-una din categoriile posibile se supune distribuţiei
multinomiale.

2. Din cauza complexităţii procesului de evaluare a probabilităţilor multinomiale, este


utilizată o estimare a acestora prin distribuţia chi-pătrat. Numărul gradelor de
libertate pentru distribuţia multinomială este dat de numărul categoriilor minus 1.

3. Testul chi-pătrat are două variante: 1) testul chi-pătrat al asocierii testează diferenţa
dintre valorile a două variabile categoriale (nominale sau ordinale); 2) testul chi-
pătrat al corespondenţei (goodness of fit) măsoară diferenţa („potrivirea") dintre
valorile unei variabile categoriale şi probabilităţile teoretice cunoscute dinainte ale
acestor valori.

4. Diferenţele mari dintre frecvenţele observate şi cele aşteptate produc valori ridicate
ale testului chi-pătrat, care cad în zona dreaptă (pozitivă) a distribuţiei de nul şi
conduc la respingerea ipotezei de nul. Diferenţele mici produc valori ale testului chi-
pătrat apropiate de zero, conducând la acceptarea ipotezei de nul.

5. Atunci când fiecare dintre cele două variabile are doar două categorii, situaţie în care
frecvenţele aşteptate sunt prea mici pentru a justifica o estimare chi-pătrat, se
utilizează testul exact Fischer.

9.2.11. Exerciţii

301
1. Pentru a verifica ipoteza că există o legătură între numărul de internări
psihiatrice şi anotimp, au fost numărate internările pentru fiecare anotimp,
obţinându-se următoarele valori: primăvara=30; vara=40; toamna=20;
iarna=10. Testaţi ipoteza că internările psihiatrice sunt inegal distribuite în
funcţie de anotimp (pentru alfa=0.05).

2.Într-un serviciu de psihologie clinică rezultatele mai multor psihologi în terapia


unor pacienţi cu tulburări severe au fost evaluate astfel: Ameliorare, Fără
modificări, Înrăutăţire. rezultatele studiului se află în tabelul alăturat:

Psiholog A Psiholog Psiholog C Psiholog D Psiholog E


Îmbunătăţire 15 B11 16 13 10

Nemodificat 5 3 0 4 6

Înrăutăţire 0 6 4 3 4

1.Enunţaţi ipoteza cercetării şi ipoteza de nul

2.Găsiţi χ2 critic pentru α=0.01


3.Testaţi ipoteza şi prezentaţi rezultatul în format standard
4. Calculaţi şi interpretaţi coeficientul φc
Notă: Ignoraţi faptul că două din celulele tabelului au valoarea zero!
(Verificaţi răspunsurile corecte la secţiunea 14. Rezolvări şi explicaţii la
exerciţiile din volum, Capitolul 9, exerciţiile 9.2.11)

9.2.12. Întrebări pentru o evaluarea parţială


1.Care este coeficientul de determinare, dacă r=-0.80?
2.În cazul testului t pentru eşantioane dependente, pe ce scară se exprimă valorile
variabilei independente?

3.Care este numele celui care a introdus testul de corelaţie pentru date parametrice?

4.Care este valoarea lui r pentru o corelaţie perfectă?

302
5.Care dintre următorii coeficienţi de corelaţie este semnificativ: r=-0.70 (p=0.05) sau
r=+0.70 (p=0.05)?

6. În ce caz o valoare a lui r apropiată de 0 (zero), indică, totuşi, existenţa unei corelaţii
între variabile?

7. Distribuţia binomială este...

8. Care este probabilitatea lui P pentru un eveniment dihotomic aleator (DA/NU)?

9. Care este echivalentul parametric al testului z pentru proporţii?


10. În cazul testului chi-pătrat, frecvenţa aşteptată se referă la...
11. Testul chi-pătrat goodness-of-fit se utilizează pentru a...
12. Care sunt caracteristicile distribuţiei chi-pătrat?
Verificaţi răspunsurile corecte la paginile: 367-411

303
Capitolul 10. Teste neparametrice nominale cu SPSS/PASW

Testele neparametrice implică asumpţii minime asupra distribuţiei datelor. Testele


neparametrice disponibile meniul Analyze în PASW/SPSS pot fi grupate în trei categorii:
teste pentru analiza unui eşantion, teste pentru eşantioane dependente şi teste pentru
eşantioane independente. Acestea vor fi utilizate în următoarele situaţii: VD este
măsurată pe scală nominală sau ordinală; VD este de tip categorial; deşi VD este
cantitativă, aceasta nu întruneşte condiţiile impuse de testele parametrice; volumul
eşantionului este foarte mic.

10.1 Testul z al proporţiei pentru un singur eşantion


Pentru a testa diferenţa dintre proporţiile valorilor la eşantion prin comparaţie cu
proporţia la nivelul populaţiei. Variabilele testate trebuie să fie numerice şi dihotomice.
Variabilele alfanumerice (string) trebuie recodate prin intermediul procedurii Automatic
Recode, disponibilă în meniul Transform.
De exemplu, suntem interesaţi să aflăm dacă, printre participanţii voluntari la un studiu,
sunt mai mulţi bărbaţi sau mai multe femei.
În versiunea curentă a PASW/SPSS, această procedură poate fi accesată pe calea
Analyze – Nonparametric Tests. Cercetătorul poate opta pentru opţiunea One Sample

304
Sau, dacă preferă modul de lucru specific versiunilor mai vechi poate fi accesat meniul
Legacy:

Pentru îndeplinirea obiectivelor prezentei lucrări, vom detalia cea din urmă variantă. În
caseta de dialog Binomial Test selectăm variabila pe care dorim să o analizăm, apoi în
zona Define Dichotomy bifăm Get From Data daca variabila este dihotomică sau Cut
Point, dacă variabila este continuă, pentru a fixa un prag care împarte distribuţia în două
categorii. Zona Test Proportion permite introducerea proporţiei primei categorii
[proporţia celei de-a doua este calculată implicit ca (100-proporţia primei categorii)] iar
în subdialogul Options stabili statisticile şi modul de tratare a variabilelor-lipsă pentru
variabila analizată.

305
Tabelul cu rezultatele prezintă următoarele informaţii: frecvenţa pe categorii, procentul
şi pragul de semnificaţie statistică a testului.

Binomial Test
Asymp
. Sig.
Observed Test (1-
Category N Prop. Prop. tailed)
sexul Group masculin 24 .48 .49 .500a,b
subiectului 1
Group feminin 26 .52
2
Total 50 1.00
a. Alternative hypothesis states that the proportion of cases in the
first group <.49.
b. Based on Z Approximation.

În exemplul prezentat, testul este nesemnificativ, ceea ce înseamnă că se acceptă


ipoteza de nul şi se respinge ipoteza cercetării: proporţia bărbaţilor care s-au oferit
voluntari pentru a participa la experiment nu diferă în mod semnificativ de proporţia
femeilor.

10.2.Testul z al diferenţei dintre două proporţii independente


Pentru a compara proporţiile obţinute pentru o variabilă dihotomică cu PASW/SPSS se
utilizează testul χ2, disponibil în procedura Crosstab. Utilizăm setul de date care au fost
utilizate ca exemplu în cuprinsul capitolului.

306
În caseta de dialog Crosstabs selectăm variabilele dependentă şi independentă, apoi în
subdialogul Statistics marcăm Chi-squre.

Fereastra de rezultate va prezenta un sumar al prelucrării cazurilor, tabelul de


corespondenţă între variabile şi rezultatele aplicări testului χ2.

307
Pentru exemplul nostru, vom utiliza formula 4.5 din tabelul Chi-Square Tests citim
valoarea Pearson Chi-Square; valoarea lui z pentru diferenţa proporţiilor este rădăcina
pătrată a acestei valori (1,82). Dacă ne-am propus un test bilateral la un nivel alfa=0.05
(pentru care z critic pe curba normală este egal cu 1.96), atunci va trebui să acceptăm
ipoteza de nul şi să concluzionăm că nu se confirmă existenţa unei diferenţe semnificative
între cele două eşantioane. Semnul lui z se află din diferenţa proporţiilor testate.

10.3. Testul semnului


Pentru a exemplifica procedura de efectuare a testului semnului, vom utiliza situaţia
prezentată în cuprinsul capitolului: un psiholog clinician aplică o metodă de reducere a
manifestărilor de tip fobic şi după un număr de şedinţe doreşte să evalueze eficienţa
intervenţiei. Pentru aceasta, îi întreabă pe clienţi dacă se simt mai bine, la fel sau mai rău
decât înainte de tratament.
Creăm un fişier de date, operând următoarele codificări: starea iniţială a tuturor
participanţilor la experiment – „0”, iar rezultatele autoevaluărilor subiecţilor 1 (mai
bine),0 (la fel), -1 (mai rău).
Pentru a lansa procedura, urmăm calea prezentată în figura următoare:

308
În caseta de dialog care se deschide, selectăm perechea sau perechile de variabile şi
marcăm, în zona Test Type, Sign.

.
Frequencies
N
evaluare - Negative Differences a
0
initial Positive Differencesb 6
Tiesc 2
Total 8
a. evaluare < initial
b. evaluare > initial
c. evaluare = initial

Test Statisticsb
evaluare - initial
Exact Sig. (2-tailed) .031a
a. Binomial distribution used.
b. Sign Test

Rezultatele sunt prezentate sub forma a două tabele: numărul diferenţelor negative,
pozitive şi situaţiilor de egalitate, respectiv semnificaţia testului. Ipoteza de nul se
respinge dacă valoarea lui p este mai mică decât pragul stabilit. În cazul de faţă, dacă
se raportează la p=0,05, ipoteza de nul se respinge, acceptându-se ipoteza că
intervenţiile psihologuluiau fost eficiente

309
10.4. Testul chi-pătrat al asocierii (independenţei)
În subcapitolul 11.2 a fost prezentat modul în care testul χ 2 poate fi utilizat pentru a
efectua testul z al diferenţei dintre două proporţii independente. Pentru a demonstra
modul de efectuare a testului χ2, vom reitera exemplul prezentat în partea teoretică a
capitolului: suntem interesaţi de relaţia dintre tipul de liceu absolvit şi specializarea
universitară aleasă ulterior. Ipoteza de cercetare este că, absolvenţii de profil „umanist”
şi „artistic” preferă psihologia mai mult decât cei care au absolvit un profil „real”.

După deschiderea casetei de dialog Crosstabs, se trec variabilele analizate în câmpurile


Row(s) şi Column(s) iar în subdialogul Statistics se marchează Chi-Square şi Phi and
Cramer’s V, din câmpul Nominal. Dacă se doreşte vizualizarea datelor, se marchează
Display clustered bar chart (reprezentarea grafică a
datelor se poate realiza şi ulterior, prin intermediul
meniului Charts).
În subdialogul Cell Dispaly, se aleg opţiunile pentru
afişarea cazurilor (observate şi aşteptate),

310
prezentarea procentelor şi a valorilor reziduale (diferenţa între frecvenţele observate şi
cele aşteptate.
Tabelul Crosstabulation prezintă frecvenţele observate pentru fiecare din celulele
rezultate din încrucişarea variabilelor, frecvenţele aşteptate ( count), procentele pe linii şi
pe coloane, precum şi reziduurile pentru fiecare celulă.

Observăm că, din totalul absolvenţilor de liceu umanist, mai mult de jumătate (57%) au
ales facultăţi cu profil umanist, 17,7% specializări tehnice şi 25,3% facultăţi cu profil

311
artistic. În acelaşi timp, dintre studenţii facultăţilor cu profil umanist, 47,4% provin
dintre absolvenţii facultăţilor cu profil umanist, 21,1% dintre absolvenţii profilului real şi
31,6% dintre absolvenţii liceului cu profil artistic.
Şi valorile reziduale prezentate în fiecare celulă susţin ipoteza cercetării, în sensul că
acestea au valori pozitive în celulele aflate la intersecţia profilurilor liceale şi universitare
de aceeaşi natură.
În următorul tabel al Output-ului sunt prezentate rezultatele testului χ 2. În cazul nostru,
acesta este semnificativ (χ2 (4)=85,94, p<0,001), ceea ce însemnă că există o
interdependenţă semnificativă statistic pentru cele două variabile.

Chi-Square Tests
Asymp. Sig. (2-
Value df sided)
Pearson Chi-Square 85.939 a
4 .000
Likelihood Ratio 82.818 4 .000
Linear-by-Linear Association 18.082 1 .000
N of Valid Cases 264
a. 0 cells (.0%) have expected count less than 5. The minimum
expected count is 24.84.
Sensul asocierii variabilelor poate fi aflat prin interpretarea procentelor (pe linie sau
coloane, în funcţie de modul de aranjare a datelor) sau prin calculul reziduurilor
standardizate ajustate: dacă acestea nu se află în intervalul [-2, 2] înseamnă că există o
diferenţă între valorile teoretice (aşteptate) şi cele observate din respectivele celule.
Informaţii suplimentare pot fi obţinute prin crearea şi analiza graficelor, fie în cadrul
efectuării testului, fie ulterior.

312
10.5. Testul chi-pătrat pentru gradul de corespondenţă (goodness of fit)
Şi în acest caz, vom utiliza datele prezentate în fundamentarea practică a procedurii
statistice pentru a exemplifica rezolvarea problemei cu ajutorul programului PASW/SPSS.
Fişierul conţine calificativele acordate fiecărui elev evaluat.
Se urmează următoarea cale:

În caseta de dialog se trece variabila dorită în câmpul Test Variabile List.

Având în vedere că dorim să comparăm rezultatele


elevilor cu distribuţia normală, vom introduce
frecvenţele aşteptate pentru eşantionul respectiv.
Acestea trebuie introduse în ordine, prima valoare
corespunzând nivelului 1 al variabilei.
Rezultatele sunt prezentate sub forma a două tabele:
primul conţine frecvenţele observate, frecvenţele

313
aşteptate şi reziduurile iar cel de-al doilea rezultatele la testul χ 2. În situaţia prezentată,
testul este semnificativ (χ2 (4)=18,33, p=0,001) iar ipoteza de nul va fi respinsă şi se va
accepta ipoteza că rezultatele elevilor nu sunt distribuite potrivit curbei normale.

314
Capitolul 11. Teste statistice pentru date ordinale

Testele statistice pentru date ordinale se utilizează în următoarele situaţii:

a) Atunci când variabila dependentă este exprimată pe scală de tip ordinal. În acest
caz valorile nu au proprietăţi de interval, dar exprimă poziţia fiecăreia în raport cu
cealaltă.

b) Atunci când variabila dependentă este măsurată pe scală de interval/raport, dar


distribuţia ei nu respectă condiţiile impuse de testele parametrice. În această
situaţie se efectuează transformare de rang, adică înlocuieşte fiecare valoare a
distribuţiei cu poziţia pe care o are în cadrul distribuţiei, sub aspectul ordinii de
mărime. Noua distribuţie rezultată poate fi supusă analizei statistice cu teste
neparametrice ordinale.

Având în vedere modelele de cercetare la care ne-am raportat până acum, vom regăsi,
pentru fiecare dintre ele, teste statistice pentru date ordinale, după cum urmează:

11.1. Testul Mann-Whitney (U) pentru două eşantioane

independente(desemnat uneori şi sub numele „Wilcoxon-Mann-Withney”,

sau „testul U”)


Să luăm în considerare următoarea problemă: un psiholog care lucrează într-o mare bancă
doreşte să vadă dacă există o diferenţă între premiile băneşti anuale primite de femeile
şi bărbaţii angajaţi ai băncii. În tabelele de mai jos se află nivelurile primelor şi rangurile
acestora în raport cu întreaga distribuţie a primelor, indiferent de sex.

315
Problema este una tipică pentru a fi rezolvată cu testul t al diferenţei dintre mediile a două
eşantioane independente. Avem o variabilă independentă de tip nominal-dihotomic şi
una dependentă, de tip interval/raport. Din păcate, analiza preliminară a variabilei
dependente („primă”) relevă abateri mari de la condiţiile de normalitate (un indice de
boltire, kurtosys, de peste 7) precum şi o slabă reprezentativitate a mediei, ambele
datorate, mai ales, prezenţei unei valori extreme (o primă de 200 mil. lei). După ce
verificăm corectitudinea valorii respective, ajungem la concluzia că ea nu poate fi
eliminată şi, ca urmare, nu este recomandabilă utilizarea unui test parametric.

Într-o situaţie de acest gen este aplicabil testul „Mann-Whitney U” pentru date ordinale.
Pe ultima coloană a fiecărui tabel găsim transformarea în ranguri a valorilor variabilei
dependente. Atribuirea rangurilor în mod descrescător sau crescător este nerelevantă.
Dacă toate valorile sunt distincte, fiecare valoare primeşte un rang distinct. Atunci când
există valori identice, valorile respective primesc un rang egal cu media aritmetică a
rangurilor cuvenite. Se poate alege şi soluţia atribuirii tuturor valorilor identice primul
rang cuvenit (ranguri ex aequo).

Atribuirea rangului cel mai mare valorii celei mai mari sau valorii celei mai mici este
irelevantă. Oricare dintre variante conduce la acelaşi rezultat, dar trebuie reflectată
corespunzător în interpretarea finală. Dacă toate valorile sunt distincte, fiecare valoare
primeşte un rang propriu. Atunci când există valori identice, vom avea aşa-numitele
ranguri ex-aequo, care pot fi calculate, opţional, în două moduri:
a) atribuirea rangului mediu. Toate valorile identice primesc un rang egal cu media
aritmetică a rangurilor cuvenite valorilor identice. De exemplu, dacă avem două valori
identice, iar primei valori i-ar corespunde rangul 8 şi celei de-a doua i-ar reveni rangul 9,
putem atribui ambelor valori rangul 8,5. Apoi, următoarea valoare distinctă va primi
rangul 10 şi aşa mai departe;
b)atribuirea rangului cel mai mic sau a celui mai mare. Toate valorile identice primesc fie
primul rang, fie ultimul, din cele corespunzătoare valorilor identice. în exemplul de la
punctul a, atât prima, cât şi a doua valoare pot primi rangul 8 sau rangul 9. Mai departe,
următoarea valoare distinctă va primi rangul 10 şi aşa mai departe;

316
c)atribuirea secvenţială. Valorile identice primesc primul rang disponibil, iar următoarea
valoare distinctă primeşte rangul următor; în acest fel rezultă mai puţine ranguri decât
numărul valorilor distribuţiei.

Tabelul 11.1. Exemplificarea modului de obţinere a rangurilor ex-aequo


Valoare a) Medie b) Rang mic b) Rang mare c) Secvenţial
10 1 1 1 1
15 3 2 4 2
15 3 2 4 2
15 3 2 4 2
16 5 5 5 3
20 6 6 6 4
Alegerea unuia sau altuia din aceste moduri de atribuire a rangurilor ex-aequo este la
latitudinea analistului. Programul SPSS oferă opţiunea alegerii oricăreia dintre ele.
Tabelul 11.1. Primele şi rangurile acestora pentru eşantionul cercetării (bărbaţi-1 şi femei-2)

Masculin1 „Premiu" (milioane Rang „premiu"


de lei)
A1 9 26
A1 34 22
A1 35 21
A1 43 18.5
A1 56 14
A1 61 12
A1 62 11
A1 64 10
A1 67 8.5
A1 67 8.5
A1 70 7
A1 75 6
A1 80 5
A1 87 4
A1 88 3
A1 110 2
A1 200 1

317
NA1- 17 ∑RA1 = 180.5

Feminin „Premiu" (milioane Rang „premiu"


de lei)
B2 3 27
B2 17 25
B2 26 24
B2 32 23
B2 36 20
B2 43 18,5
B2 44 17
B2 47 16
B2 51 15
B2 59 13
NB2 = 10 ∑RB2 = 198.5

Atenţie, premiile celor două grupuri sunt aranjate aici separat, doar pentru a favoriza
obţinerea valorilor de calcul. În realitate valorile premiului anual trebuie văzute ca fiind
plasate pe o singură distribuţie, iar rangurile obţinute în raport cu toate valorile, indiferent
de apartenenţa lor la un grup sau altul. Codificarea celor două categorii de subiecţi
(bărbaţi A1 şi femei-B2), este pur convenţională, pentru prelucrarea datelor cu ajutorul
programului SPSS, este de preferat să folosiţi o codificare exclusiv numerică.
Descriem în continuare procedura de calcul.

Se calculează două valori U, corespunzătoare grupurilor A (masculin) şi B


(Formula 11.1)

(feminin),unde:
(Formula 11.2)
nA şi nB reprezintă volumul celor două grupuri independente care compun eşantionul

ΣRA şi ΣRB reprezintă suma rangurilor pentru fiecare din cele două grupuri.

318
Vom observa că expresia din mijlocul formulei exprimă chiar suma rangurilor de la 1 la nA,
respectiv, de la 1 la nB. Dacă, de exemplu, toate rangurile grupului A ar fi mai mici decât
ale grupului B (fără nici o suprapunere între valorile celor două grupuri), atunci acest
termen al formulei ar fi egal cu ΣRA, iar UA ar fi egal cu nA*nB. În acest caz UB ar fi egal cu
0, deoarece
2
Valoarea “1” este un cod numeric convenţional asociat genului masculine, iar “2” un
cod convenţional pentru genul feminin. Utilizarea lor aici are doar scopul de a sugera că
“genul” este variabila independentă a cercetării şi primeşte două valori. Atunci când se
va utiliza un program statistic pentru calcularea testului, variabila independentă va trebui
să fie creată, cu valorile aferente, ca în acest exemplu.

UA+UB=nA*nB. Dacă însă rangurile unui grup tind să se grupeze spre zona superioară (sau
inferioară), atunci valoarea U a acelui grup va fi cu atât mai mare (sau mai mică) decât
nA*nB. Pe această particularitate se bazează evaluarea semnificaţiei diferenţei dintre
rangurile celor două grupuri.
Pentru exemplu nostru:

respectiv

Valoarea testului Mann-Whitney este dată de valoarea U cea mai mică, în cazul nostru
UB (26.5).

Decizia statistică se ia prin compararea valorii U celei mai mici cu valoarea citită în
tabelul valorilor critice pentru testul Mann-Whitney U, în funcţie de nivelul alfa, n A şi nB
(Anexa 7).
Practic, în cazul testului U decizia statistică se ia astfel:
Se respinge ipoteza de nul dacă valoarea U calculată este mai mică sau egală cu
valoarea critică tabelară(Ucalculat ≤Ucritic tabelar).

319
Se acceptă ipoteza de nul dacă valoarea U calculată este mai mare decât valoarea critică
tabelară(Ucalculat ≥Ucritic tabelar).

Logica acestei decizii pare să fie contrară raţionamentului aplicat în cazul altor teste
statistice, unde, pentru a respinge ipoteza de nul, trebuie să avem o valoare calculată
mai mare decât cea critică. Să ne gândim însă că în cazul testului Mann-Whitney
considerăm drept valoare calculată una dintre cele dintre două valori U, şi anume pe
aceea care este mai mică. Ipoteza de nul afirmă că cele două sume ar trebui să fie
egale, dacă diferenţa dintre suma rangurilor celor două eşantioane comparate ar fi
nesemnificativă. Cu cât una dintre valorile U calculate, este mai mică, cu atât cealaltă
sumă este mai mare. În consecinţă, o valoare U calculată mai mică sau egală cu U critic,
justifică respingerea ipotezei de nul.

În general, tabelele de decizie pentru testul Mann-Whitney nu acoperă decât parţial


situaţiile posibile şi nu trec de valori ale lui n A şi nB mai mari de 20. Pentru exemplul
nostru valoarea critică corespunzătoare pentru U 0.05;17:10=48 (dacă preferăm
aproximarea, mai conservatoare, nA=18).

Deoarece UB<U0.05;17:10 ipoteza de nul se respinge şi se acceptă ipoteza cercetării. Ca urmare,


concluzia cercetării este aceea că nivelul primelor anuale este semnificativ diferit pentru
bărbaţi faţă de femei3.

Afirmam mai sus că tabelele statistice pentru testul Mann-Whitney U nu se referă la


grupuri mai mari de 20. Aceasta deoarece, de la acest volum în sus, distribuţia valorilor
testului poate fi aproximată de curba normală z, iar testul poate fi calculat cu formula
următoare:3 Desigur, nu se poate invoca neapărat o discriminare de sex în acordarea
primelor dacă poziţiile profesionale ocupate de subiecţii cercetării sunt diferite. Rezultatul
poate sugera, însă, că bărbaţii ocupă poziţii profesionale mai înalte decât femeile.

(Formula 11.3)

320
Valoarea lui z astfel obţinută este comparată cu valorile critice tabelare de pe curba
normală, corespunzătoare nivelului alfa ales, unilateral sau bilateral.

Publicarea rezultatului
La publicarea rezultatului pentru testul Mann-Whitney U se vor indica:
- volumul grupurilor comparate (nA şi nB)
- valoarea testului (U)
- pragul de semnificaţie (p).
11.2. Exerciţii

Un cercetător doreşte să verifice dacă băieţii crescuţi de către mame singure manifestă un
nivel mai ridicat al trăsăturii „feminitate” decât băieţii crescuţi în familii bi-parentale.
Primul grup (A) cuprinde 10 subiecţi, al doilea, (B) este format din 8 subiecţi.

Evaluarea „feminităţii” s-a făcut pe baza unui chestionar specializat, cotat cu un scor
numeric. Numărul subiecţilor nu permite aplicarea unui test t pentru eşantioane
independente, motiv pentru care se decide utilizarea testului Mann-Whitney (U).

Datele cercetării:valorile exprimă scorul la trăsătura „feminitate”

Provenienţa Scor „feminitate”


A 14
A 12
A 15
A 9
A 10
A 13
A 15
A 11
A 14
A 12
B 10
B 7
B 12
B 8
B 6
321
B 4
B 3
B 5
Care este valoarea testului Mann-Whitney (U)? Care este decizia statistică şi ce concluzie
trage cercetătorul?

(Verificaţi răspunsurile corecte la secţiunea 14. Rezolvări şi explicaţii la


exerciţiile din volum, Capitolul 11, exerciţiile 11.2)
aa

11.3. Testul Kruskal-Wallis pentru mai mult de două eşantioane


independente
Pentru evaluarea diferenţei la nivel de ranguri între mai mult de două eşantioane
independente se utilizează testul Kruskal-Wallis. Acesta poate fi asimilat unei analize de
varianţă pentru date ordinale.Să presupunem că dorim să vedem dacă există diferenţe
în abilitatea de a rezolva o sarcină de reprezentare spaţială la trei categorii profesionale
aeronautice, piloţi (grup 1), controlori de trafic aerian (grup 2) şi navigatori de bord
(grup 3). În acest scop a fost aplicat un test de reprezentare spaţială unui număr de şase
piloţi, trei controlori de trafic şi patru navigatori de bord. Rezultatul este unul numeric
(scorul la test), dar, dat fiind numărul foarte mic al subiecţilor, aplicarea testului ANOVA
este nepotrivită. Ca urmare, alegem soluţia conversiei rezultatelor în valori de rang (pentru
toate grupurile luate împreună) şi utilizăm un test pentru date ordinale. Datele pentru
acest exemplu sunt prezentate în tabelul 11.2.
Tabelul 11.2. Valori pentru exemplificarea testului Kruskal – Wallis
Grup profesional Scor reprezentare Rang
spaţială
1 23 2
1 16 6
1 15 7
1 10 11
1 9 12
1 21 3
2 18 5
2 14 8
2 11 10
3 25 1

322
3 19 4
3 13 9
3 7 13

Tabelul prezintă datele cercetării. Variabila „grup” este una de tip nominal, fiecare din
cele trei grupuri fiind codificat cu o valoare convenţională (1=pilot, 2=controlor de trafic,
3=navigator de bord). Variabila „scor reprez.spaţială”, este de tip numeric şi reprezintă
scorul la test. Variabila „rang” conţine poziţia a fiecărui subiect sub aspectul reprezentării
spaţiale, în raport cu toate valorile înregistrate. Formula de calcul pentru testul Kruskal-

Wallis (notat cu H) este următoarea:

(Formula 11.4)

unde:

H este valoarea calculată a testului K-W

N este volumul total al eşantionului

n este volumul grupurilor (N=n1+n2+n3+...+nk)

K este numărul grupurilor independente

T este suma rangurilor care va fi calculată pentru fiecare grup.

Înlocuind valorile corespunzătoare exemplului, obţinem:

Valorile distribuţiei de nul ale lui H urmează forma distribuţiei chi-pătrat care, ne
amintim, are originea în valoarea 0. Cu cât sumele rangurilor pentru cele k grupuri sunt
mai diferite între ele, cu atât valoarea testului este mai mare şi, potenţial, mai aproape de
o variaţie semnificativă. Diferenţele mici dintre rangurile grupurilor conduc spre valori ale

323
testului care tind spre 0 şi, implicit, nesemnificative. Valoarea critică a testului se citeşte din
tabelul distribuţiei chi-pătrat pentru df=k-1. Există totuşi o excepţie, atunci când nici unul
din grupurile comparate nu este mai mare de 6, situaţie în care decizia se ia cu ajutorul
unei tabele speciale. În cazul nostru există un grup cu mai mult de cinci subiecţi. Ca
urmare, scorul critic pentru alfa=0.05 şi 2 grade de libertate este 5.99. Deoarece H
calculat este mai mic decât H critic, suntem nevoiţi să acceptăm ipoteza de nul şi să
concluzionăm că cele trei categorii de subiecţi nu sunt diferite sub aspectul capacităţii de
reprezentare spaţială.

11.4. Exerciţii
Având în vedere faptul că volumul foarte redus al eşantionului (N=6), analizaţi prin
intermediul testului Kruskal-Wallis datele temei pe care aţi avut-o la testul ANOVA.
Un psiholog trebuie să recomande unui patiser culoarea glazurii pentru un nou tip
de prăjitură, având de ales între verde, roşu şi galben. În acest scop alege 18 subiecţi,
cărora le cere să efectueze o sarcină plictisitoare având la îndemână platouri cu prăjituri
glazurate. Subiecţii sunt împărţiţi în trei grupe, fiecare primind prăjituri de o singură
culoare. După un timp, numără câte prăjituri a mâncat fiecare subiect din cele trei grupuri
şi construieşte tabelul următor:
Verde Roşu Galben
3 3 2
7 4 0
1 5 4
0 6 6
9 4 4
2 6 1
Care este valoarea testului şi ce decizie ia cercetătorul?

(Verificaţi răspunsurile corecte la secţiunea 14. Rezolvări şi explicaţii la


exerciţiile din volum, Capitolul 11, exerciţiile 11.4)

11.5. Testul Wilcoxon pentru două eşantioane perechi


Dacă avem subiecţi evaluaţi de două ori, pe o scală de interval, iar variabilele nu
întrunesc condiţiile pentru utilizarea testului t al diferenţelor pentru eşantioane
dependente, se poate apela la testul Wilcoxon. Acesta este un test care, deşi se aplică pe

324
scale de interval/raport, utilizează proceduri de tip neparametric, apelând la diferenţele
dintre valorile perechi şi la ordonarea lor. Este, din acest punct de vedere, un test de
date ordinale.

Exemplu: Un psiholog evaluează frecvenţa conduitelor agresive după prezentarea


unui film care are incluşi stimuli subliminali cu semnificaţie agresivă. Frecvenţa conduitelor
agresive este măsurată înainte şi după vizionarea filmului. Rezultatele sunt sintetizate în
tabelul următor.
Tabelul 11.4. Exemplu de calcul pentru testul Willcoxon
Cod ”Înainte” ”După” ”După”- Modulul Rangul Semnul
subiect ”Înainte” diferenţei diferenţei diferenţei
1 9 8 -1 1 7.5 -
2 14 17 3 3 5.5 +
3 10 17 7 7 2.0 +
4 11 12 1 1 7.5 +
5 12 15 3 3 5.5 +
6 9 13 4 4 3.5 +
7 10 14 4 4 3.5 +
8 14 2 -12 12 1.0 -

Coloanele tabelului prezintă etapele procedurii de calcul:


se calculează diferenţa dintre variabilele supuse testării
dacă sunt diferenţe nule, se elimină
se iau în considerare diferenţele în valoare absolută
 se construiesc rangurile pentru diferenţele în valoare absolută

 se marchează semnul diferenţelor pentru fiecare pereche de valori

Din acest punct calcularea valorilor testului este simplă. Se calculează două valori T,
astfel: T(-), prin însumarea rangurilor diferenţelor negative, şi T(+), prin însumarea
rangurilor diferenţelor pozitive. Valoarea cea mai mică dintre ele este rezultatul testului
Wilcoxon, al cărui nivel de semnificaţie se află prin compararea cu valorile critice dintr-o
tabelă specială (Anexa 8), în funcţie de nivelul alfa ales şi de volumul eşantionului (N).
Testul se fundamentează pe ideea că atunci când ipoteza nulă este adevărată, ar trebui ca
suma rangurilor pentru diferenţele pozitive să fie egală cu suma rangurilor pentru

325
diferenţele negative. Pe măsură ce diferenţa dintre cele două sume este mai mare, ne
îndepărtăm de condiţia ipotezei de nul.
Decizia statistică pentru acest test se ia în felul următor:
 atunci când valoarea calculată este mai mică sau egală decât valoarea critică
tabelară, ipoteza de nul se respinge, iar ipoteza cercetării se confirmă;

 atunci când valoarea calculată este mai mare decât valoarea critică tabelară,
ipoteza de nul se acceptă, iar ipoteza cercetării nu se confirmă.

Logica acestei decizii este similară celei aplicate în cazul testului Mann-Whitney.
Valoarea calculată a testului este valoarea T cea mai mică, fie cea pozitivă, fie cea
negativă. Ipoteza de nul afirmă că cele două sume ar trebui să fie egale, dacă diferenţa
dintre prima şi a doua măsurare ar fi nesemnificativă. Cu cât una dintre valorile T
calculate, fie cea cu plus, fie cea cu minus, este mai mică, cu atât cealaltă sumă este
mai mare. În consecinţă, un T calculat mai mic sau egal cu T critic justifică respingerea
ipotezei de nul.

Pentru exemplul nostru, T(+)=28.5 iar T(-)=8.5. Acesta din urmă devine rezultatul
testului. Valoarea calculată (8.5) este mai mare decât valoarea critică (4) pentru N=8 şi
alfa=0.5 bilateral. Ca urmare, suntem nevoiţi să acceptăm ipoteza de nul, considerând
neconfirmată ipoteza cercetării. Concluzia cercetării, pentru exemplul dat, este aceea că
datele studiului nu confirmă existenţa unei relaţii între prezenţa stimulilor subliminali şi
frecvenţa conduitelor agresive, după vizionarea filmului.

Aproximarea normală a distribuţiei testului Mann-Whitney


Ca şi în cazul testului Mann-Whitney, pentru eşantioane mai mari de 20 distribuţia de
nul a testului Wilcoxon poate fi aproximată prin distribuţia normală. Formula de calcul
pentru acest caz este următoarea:

(Formula 11.5)

326
Exceptând situaţiile în care se operează pe eşantioane mici, ca în exemplul de mai sus,
calculele sunt destul de laborioase. Din fericire, toate programele avansate de statistică
oferă proceduri pentru calcularea automată a acestor teste statistice.

Consideraţii finale

Atunci când rezultatul testului este semnificativ, enunţarea concluziei şi


interpretarea rezultatului vor ţine cont de modul de atribuire a rangurilor, cu alte cuvinte,
dacă rangul 1 a fost atribuit valorii celei mai mari, sau celei mai mici.
O problemă apare atunci când există diferenţe egale cu zero între rangurile perechi (valori
de rang egal). Unii statisticieni recomandă eliminarea cazurilor care dau diferenţe egale
cu zero şi, implicit, reducerea volumului eşantionului cu aceste cazuri. O abordare mai
riguroasă este aceea de a păstra valorile zero, dar atribuind arbitrar semnul + la jumătate
dintre ele şi semnul – la cealaltă jumătate. În situaţia în care există un număr impar de
diferenţe egale cu zero între rangurile celor două evaluări, se va elimina una dintre ele
(reducând N cu 1), după care se aplică regula enunţată anterior.
11.6. Exerciţii

Având în vedere numărul mic al subiecţilor cercetării din tema pentru acasă de la testul t
pentru eşantioane dependente, refaceţi calculele utilizând testul Wilcoxon:

Timp nelimitat Timp limitat

67 65
79 73
83 70
80 85
99 93
95 88
80 72
100 69
Care sunt valoarea testului, decizia statistică şi concluzia cercetării în acest caz?

(Verificaţi răspunsurile corecte la secţiunea 14. Rezolvări şi explicaţii la


exerciţiile din volum, Capitolul 11, exerciţiile 11.6)

327
11.7. Testul Friedman pentru măsurări repetate
Să presupunem că un psiholog doreşte să studieze relaţia dintre stilurile de
conducere (laissez-faire, democratic şi autoritar) asupra nivelului de satisfacţie
profesională. În acest scop el poate constitui un grup de cercetare pe care să îl supună, în
momente succesive, celor trei tipuri de conducere. Un alt model ar putea fi constituirea a
trei eşantioane perechi, astfel constituite încât fiecărui subiect dintr-un eşantion să îi
corespundă câte un subiect „echivalent” din fiecare dintre celelalte două eşantioane
(criteriile de echivalenţă pot fi: sexul, vârsta, nivelul de inteligenţă, gradul de motivare,
etc.).Dar, oricare dintre variantele pe care l-ar alege cercetătorul, din punct de vedere
statistic el ar obţine o structură de date identică: trei serii de evaluări ale satisfacţiei
(variabila dependentă), pentru aceiaşi subiecţi (sau perechi de subiecţi) corespunzătoare
celor trei stiluri de conducere. Dacă variabila dependentă ar fi măsurată pe o scală de
interval/raport, testul parametric adecvat este unul pe care nu a fost tratat în acest
volum, „ANOVA pentru măsurări repetate”. În lipsa lui, şi presupunând că variabila
dependentă nu întruneşte condiţiile unui test parametric, soluţia problemei este testul
Friedman pentru date ordinale. Pentru aplicarea lui este suficient ca valorile variabilei
dependente să fie ordonate după rang, ca în tabelul alăturat. Facem precizarea că, în
acest caz, ordonarea după rang se face la nivelul fiecărui set de evaluări perechi:
Tabelul 11.5. Date pentru exemplificarea testului Friedman
Democratic Laissez-faire Autocratic
1 1 2 3
2 2 1 3
3 1 2 3
4 1 2 3
5 1 2 3
6 2 1 3
N=6 T1=8 T2=10 T3=18

328
Testul Friedman (Fr) pune în evidenţă în ce măsură rangurile evaluărilor repetate
diferă cu adevărat (statistic semnificativ) unele de altele, după formula:

(Formula 11.6)

unde:
c este numărul măsurărilor repetate
N este volumul seturilor de evaluări perechi

Ti este suma rangurilor corespunzătoare fiecărui moment de măsurare

La fel ca şi în cazul testului H (Kruskal-Wallis), distribuţia de nul a testului Friedman


urmează forma distribuţiei chi-pătrat pentru df=c-1. Introducem valorile cercetării în
formulă:

Valoarea critică tabelară (chi-pătrat, Anexa 6) pentru df=3-1=2, este 5.99. Valoarea
calculată fiind mai mare, se respinge ipoteza de nul şi se consideră confirmată ipoteza
cercetării: nivelul satisfacţiei profesionale variază semnificativ în funcţie de stilul de
conducere.

Testul Friedman poate fi aplicat şi în cazul a doar două măsurări, situaţie în care devine
similar testului semnului. La fel ca şi celelalte teste pentru date ordinale, el este afectat
de existenţa rangurilor atribuite ex-aequo, pentru valori identice. În astfel de cazuri este
recomandabilă aplicarea unei corecţii în formula de calcul, pe care nu o vom prezenta aici,
în speranţa că utilizarea programelor specializate va face, oricum, corecţiile necesare.

11.8. Exerciţii

329
Un neurofiziolog doreşte să verifice dacă există o relaţie între leziunea cerebrală stângă şi
tipul de deficit de memorie de scurtă durată, în trei tipuri de sarcină diferite: cifre,
litere, litere şi cifre amestecate.

Un număr de cinci subiecţi cu leziune cerebrală stângă au efectuat teste de memorie


distincte, pe şiruri de cifre, litere şi combinaţii de cifre şi litere. Performanţa
înregistrată marchează şirul cel mai lung memorat pentru fiecare test în parte.

Datele cercetării:
(valorile semnifică lungimea şirului memorat)
Subiectul Cifre Litere Cifre/Litere
A 6 5 6
B 8 7 5
C 7 7 4
D 8 5 8
E 6 4 7
F 7 6 5

Care este valoarea testului Friedman?

Care este decizia statistică şi ce concluzie trage cercetătorul?

(Verificaţi răspunsurile corecte la secţiunea 14. Rezolvări şi explicaţii la


exerciţiile din volum, Capitolul 11, exerciţiile 11.8)

330
11.9. Coeficientul de corelaţie pentru date ordinale (Spearman-rs)
Testele Wilcoxon şi Friedman sunt utilizate pentru a pune în evidenţă diferenţele dintre două
sau mai multe eşantioane perechi (situaţie care, de regulă, se referă la măsurări repetate
pe aceiaşi subiecţi). Atunci când avem două variabile ordinale şi suntem interesaţi în
evaluarea gradului de asociere între ele, vom utiliza un test similar coeficientului de corelaţie
pentru date de interval care este coeficientul de corelaţie a rangurilor (Spearman).

Aşa cum ne amintim, coeficientul de corelaţie Pearson(r) ne dă măsura intensităţii


legăturii dintre două variabile exprimate pe scale de tip interval/raport. Mecanismul de
calcul se bazează pe transformarea valorilor ambelor variabile în scoruri z, adică pe
convertirea acestora în „distanţă standard” faţă de medie. Pentru datele de tip ordinal,
modalitatea de calcul a coeficientului de corelaţie se bazează pe poziţia relativă a unei
valori faţă de celelalte. Coeficientul de corelaţie a rangurilor Spearman (rS) are acelaşi
domeniu de variaţie (-1/+1) şi se interpretează în acelaşi mod ca şi coeficientul de corelaţie
pentru date parametrice Pearson.

Exemplu:

Problema cercetării. Într-un studiu cu privire la ameliorarea sistemului de evaluare a


personalului, doi instructori urmează un program special de armonizare a evaluării. La
sfârşitul programului ei sunt puşi să ierarhizeze personalul unui compartiment de
muncă (N=10) din punctul de vedere al performanţei profesionale.

Ipoteza cercetării. (pentru test bilateral) Evaluările celor doi instructori vor fi
concordante.

Ipoteza de nul. Între evaluările celor doi instructori nu există nici o legătură
Criteriile deciziei statistice:
 alfa= 0.05

 rS critic se citeşte într-un tabel special pentru coeficientul Spearman (Anexa 9).
Valoarea se citeşte la intersecţia dintre linia corespunzătoare lui N (în acest caz nu
se folosesc gradele de libertate) cu coloana corespunzătoare tipului de test
(unilateral, bilateral) şi a nivelului α. Înregistrăm rS critic =0.648

331
Datele cercetării sunt prezentate în tabelul 11.6

Tabelul 11.6. Datele cercetării şi modul de calcul pentru testul Spearman

Angajaţi RANG RANG Diferenţa (D) (R1-R2) D2


Instructor Instructor
A 3 2 1 1
B 1 3 -2 4
C 7 5 2 4
D 6 4 2 4
E 10 10 0 0
F 5 8 -3 9
G 9 7 2 4
H 8 9 -1 1
I 4 6 -2 4
J 2 1 1 1
2D2=32

Dacă înlocuim în formula de calcul 11.7. pentru coeficientul de corelaţie a rangurilor


Spearman, datele cercetării obţinem 0,81:

(Formula 11.7)

Decizia statistică: rS calculat (0.81)≥ rS critic (0.684). Ipoteza de nul se respinge.


Concluzia cercetării: Evaluările celor doi instructori sunt semnificativ concordante.
Programul de instruire a avut efectul scontat.

11.9.1.Interpretarea coeficientului de corelaţie Spearman

În principiu acesta se interpretează la fel ca şi coeficientul de corelaţie Pearson.

332
Tabelul 11.7. Interpretarea coeficientului de corelaţie Spearman

rS= 0 Cele două variabile nu variază concomitent, deloc


0 > rS > 1 Cele două variabile tind să crească sau să scadă concomitent, într-
rS = 1.0 Corelaţie
o anumităpozitivă
măsurăperfectă
-1 > rS > În timp ce o variabilă tinde să crească, cealaltă tinde să descrească
0rS = -1.0 Corelaţie negativă perfectă
Dacă probabilitatea aferentă valorii calculate a testului este mai mare decât 0.05,
coeficientul de corelaţie va fi considerat nesemnificativ (are şanse prea mari să rezulte
din întâmplare). Aceasta nu înseamnă că nu există o corelaţie între cele două variabile, ci
doar că datele noastre nu au putut să o pună în evidenţă. Calcularea coeficientului de
determinare (rS2) în cazul corelaţiei Spearman nu este uzuală, deşi există autori care o
acceptă.

11.9.2. Când se utilizează coeficientul de corelaţie Spearman?

 Atunci când ambele variabile sunt de tip ordinal

 Atunci când una dintre variabile este de tip ordinal şi cealaltă este de tip
interval/raport. În acest caz, variabila interval/raport se transformă mai întâi în
valori de ordine de rang

 Atunci când ambele variabile sunt de tip interval/raport dar una sau ambele,
prezintă valori extreme. În acest caz, prin transformarea în ordine de rang a celor
două distribuţii, valorile extreme sunt anihilate, ele urmând să participe la corelaţie
prin simpla poziţie în distribuţie şi nu prin nivelul lor absolut.

Formula 11.7 nu este considerată adecvată pentru situaţiile în care variabilele supuse
corelaţiei prezintă multe ranguri ex-aequo. De aceea, un test alternativ pentru asocierea
variabilelor ordinale este coeficientul de corelaţie a rangurilor Kendall tau. La fel ca şi
coeficientul Spearman, Kendal tau ia valori între -1 şi +1. Similarităţile se opresc însă aici,
deoarece coeficientul Kendall se calculează pe o cale diferită şi se fundamentează pe o
estimare a parametrului populaţiei. Aceasta estimare se calculează ca probabilitatea
concordanţei minus probabilitatea discordanţei dintre rangurile perechi. Nu vom analiza în
amănunt procedura de calcul, dar vom prezenta modul de obţinere a coeficientului Kendall
cu ajutorul programului SPSS în secţiunea următoare. Ambii coeficienţi sunt larg utilizaţi în

333
studiile statistice, făcând, în acelaşi timp, şi obiectul unor dispute între statisticieni.
Adesea, coeficientul Kendall este considerat mai adecvat datorită faptului că distribuţia
acestuia se apropie de forma normală începând de la volume mai mici ale eşantioanelor.
Chiar dacă, în calcule, pe aceleaşi date, cu cei doi coeficienţi se obţin valori uşor diferite,
decizia statistică nu este, de obicei, diferită.

11.10. Exerciţii

Într-o şcoală de pilotaj a fost organizat un curs de optimizare a evaluării elevilor de către
instructori, cu scopul de a se uniformiza criteriile de evaluare.

După terminarea cursului, doi instructori sunt puşi să efectueze, fiecare, un număr de ore
de zbor cu aceiaşi 10 elevi, după care li se cere să facă o ierarhie a lor.

Elev Instructor 1 Instructor 2


A 3 3
B 1 2
C 7 6
D 6 7
E 10 10
F 5 4
G 9 8
H 8 9
I 4 5
J 2 1

Care este valoarea corelaţiei dintre evaluările celor doi instructori? Care este decizia
statistică şi concluzia cercetării în acest caz?

(Verificaţi răspunsurile corecte la secţiunea 14. Rezolvări şi explicaţii la


exerciţiile din volum, Capitolul 11, exerciţiile 11.10)

11.11. Rezumat privind testele statistice pentru date ordinale

1. Pentru a testa dacă două populaţii diferă între ele, pe o variabilă continuă, fără a avea
posibilitatea de măsurare exactă a acesteia (pe scală de interval sau raport), pot fi
selecţionate două eşantioane considerate împreună, după care valorile vor fi ordonate pe

334
baza rangurilor de mărime. Testarea diferenţei se face prin însumarea separată a
rangurilor valorilor celor două eşantioane.

2. Dacă eşantioanele nu diferă, suma rangurilor va fi apropiată sau egală, iar dacă diferă,
semnificaţia diferenţei dintre ranguri este probată cu testul Mann-Whitney(U).

3. Testul Mann-Whitney(U) este utilizat ori de câte ori o variabilă nu poate fi măsurată
precis, dar se poate determina ordinea valorilor. De asemenea, el se utilizează atunci
când cele două variabile sunt măsurate pe scale cantitative, dar prezintă valori aberante
legitime.
4. Testul Mann-Whitney este echivalentul pentru date ordinale al testului diferenţei
dintre medii pentru eşantioane independente (compuse din subiecţi diferiţi).

5. Testul Kruskal- Wallis este o extensie a testului Mann-Whitney şi se utilizează atunci


când avem de comparat rangurile a mai mult de două eşantioane independente. Din
acest punct de vedere, testul Kruskal- Wallis este echivalentul pentru date ordinale al
analizei de variantă unifactoriale (ANOVA).

6. Dacă datele sunt recoltate de la aceiaşi subiecţi în două condiţii de cercetare diferite,
testarea diferenţei dintre ranguri se face cu testul Willcoxon. Acesta este echivalentul
testului t pentru diferenţa dintre mediile a două eşantioane dependente (compuse din
aceiaşi subiecţi).

7. În acest caz, toate diferenţele sunt ordonate după mărime, ignorând semnul lor, suma
rangurilor fiind făcută separat, pentru diferenţele pozitive şi negative. O diferenţă mare
dintre aceste două sume este dovada unei diferenţe între cele două eşantioane
comparate.
8. Testul Friedman este un test care extinde analiza diferenţelor de rang la mai mult de
două eşantioane dependente. El este echivalentul analizei de variantă pentru măsurători
repetate (test care nu a fost tratat în acest volum).
9. Atunci când avem două variabile măsurate pentru aceiaşi subiecţi, ale căror valori se
exprimă pe scală ordinală, şi dorim să testăm gradul de asociere dintre acestea, în locul
testului de corelaţie Pearson se utilizează corelaţia Spearman(sau Kendall) pentru date
ordinale.

335
10. Corelaţia Spearman (sau Kendall) este recomandabilă şi atunci când variabilele sunt
măsurate pe scale de interval sau de raport, dar distribuţia uneia sau a ambelor se
îndepărtează grav de la forma normală.
11. Coeficientul de corelaţie Spearman şi coeficientul Kendall se definesc în aceeaşi plajă
de valori ca şi corelaţia Pearson ( ± 1) şi se interpretează în mod similar.
12. Testele pentru variabile ordinale sunt independente de forma distribuţiei variabilelor.

336
Capitolul 12.Teste neparametrice pentru date ordinale cu SPSS

12.1.Testul Mann-Whitney (U) pentru două eşantioane independente


Reluăm exemplul oferit în cursul capitolului: un psiholog care lucrează într-o mare bancă
doreşte să vadă dacă există o diferenţă între premiile băneşti anuale primite de femeile şi
bărbaţii angajaţi ai băncii.
Parcurgem următorii paşi pentru a rula procedura:

În caseta de dialog care apare, se mută în câmpul Test Variabile List variabilele care vor
fi analizate, se definesc valorile variabilei independente şi se selectează testul care se
doreşte a fi efectuat.

337
Rezultatele vor fi afişate sub forma a două tabele. În primul tabel sunt prezentate
informaţii sintetice despre variabila studiată (mărimea eşantionului, media rangurilor şi
suma acestora)

În cel de-al doilea tabel sunt incluse valorile testului U (Mann-Whitney).

Valoarea negativă a lui z ne arată că suma rangurilor este mai mică decât cea aşteptată.
În cazul de faţă, testul este semnificativ statistic, ceea ce înseamnă că ipoteza nulă va fi
respinsă, fiind acceptată ideea că angajaţii băncii de sex masculin au beneficiat de prime
mai ari decât angajaţii de sex feminin.

12.2.Testul Wilcoxon pentru două eşantioane-pereche


Parcurgem următorii paşi pentru a rula procedura:

În caseta de dialog care se


deschide se stabilesc
perechile de variabile care

338
vor fi analizate şi se marchează tipul testului, în câmpul Test Type (testul Wilcoxon este
opţiunea implicită).
Output-ul este prezentat sub forma a două tabele. În primul sunt prezentate informaţii
sintetice despre numărul, media şi suma rangurilor pozitive, negative şi egale:

Cel de-al doilea tabel conţine rezultatele efectuării testului Wilcoxon.

În situaţia de faţă, rangurile negative au fost mai puţine iar testul Wilcoxon a fost calculat
pe baza acestora (a se vedea nota de la punctul a din cel de-al doilea tabel). Valoarea z
este nesemnificativă statistic, ceea ce înseamnă că ipoteza nulă nu poate fi respinsă.

339
12.3.Testul Kruskal-Wallis pentru mai mult de două eşantioane independente

În fereastra de dialog se stabilesc opţiunile pentru efectuarea testului: VD şi VI în


câmpurile Test Variable List, respectiv Grouping Variable; testul care se doreşte a fi
efectuat (implicit este testul Kruskal-Wallis H). În subdialogul Range Grouping Variabile
se defineşte domeniul valorilor variabilei independente.

Rezultatele sunt prezentate sub forma a două tabele. Primul dintre acestea prezintă
informaţii despre variabila testată: numărul de subiecţi din fiecare categorie, şi media
rangurilor pentru fiecare grup.

340
Al doilea tabel (Test Statistics) conţine informaţii despre rezultatul testului efectuat,
exprimate sub forma valorii χ2, numărul gradelor de libertate şi pragul de semnificaţie. În
situaţia prezentată, ipoteza nulă este reţinută dar nu este acceptată.

12.4.Testul Friedman pentru măsurări repetate


Pentru a evalua relaţia dintre stilurile de conducere (laissez-faire, democratic şi autoritar) şi
nivelul de satisfacţie profesională, pentru setul de date prezentat în partea de fundamentare
teoretică a capitolului, după deschiderea fişierului urmăm calea:

În caseta de dialog deschisă se selectează variabilele care vor fi analizate şi tipul testului
(opţiunea pre-setată este Friedman).

341
Rezultatele procedurii sunt prezentate prin intermediul a două tabele.

Test Statisticsa
Ranks N 6
Mean Rank Chi-square 9.333
laissez_faire 1.33 df 2
democratic 1.67 Asymp. Sig. .009
autoritar 3.00 a. Friedman Test

Primul dintre tabele prezintă media rangurilor iar cel de al doilea, mărimea eşantionului,
valoarea testului (χ2), numărul gradelor de libertate şi pragul de semnificaţie. Rezultatul
afişat permite respingerea ipotezei nule şi acceptarea ipotezei cercetării: nivelul
satisfacţiei profesionale variază semnificativ în funcţie de stilul de conducere.

12.5. Corelaţia datelor ordinale (Spearman, Kendall)


Pentru a ilustra modul de soluţionare cu ajutorul pachetului de programe statistice
PASW/SPSS vom utiliza, iarăşi, datele utilizate pentru fundamentarea teoretică a
procedurii (fişierul corelatii_ordinale.sav). Acesta conţine rangurile acordate de doi
evaluatori care au parcurs un program de armonizare a evaluării performanţelor
profesionale; ne propunem să determinăm măsura în care acestea sunt concordante.
Calea de lansare a procedurii este următoarea:

342
În caseta de dialog deschisă se selectează variabilele a căror asociere va fi studiată, tipul
testului de asociere a datelor utilizat (în câmpul Correlation Coefficients) şi modalitatea
de testare a ipotezei (uni- sau bi-direcţională).

În practică se utilizează doar unul dintre testele tau-b (Kendall) sau rho (Spearman). Au
fost selectate ambele pentru a putea fi comparate, în scop didactic.

343
Principul de selectare a unuia sau altuia dintre coeficienţii de corelaţie a datelor ordinale
este următorul: daca mai mult de 25% din date sunt egale în ranguri se utilizează testul ζ
(tau) a lui Kendall.
Interpretarea coeficienţilor de asociere a datelor ordinale se face în mod similar felului în
care sunt interpretaţi coeficienţilor de corelaţie liniară, potrivit criteriilor lui Cohen (Cohen,
1988).
Analiza coeficienţilor prezentaţi în tabel indică existenţa unei corelaţii puternice între
variabile, semnificative statistic (ζ=0,64, p=0,009).

344
Capitolul 13. Strategia analizei statistice a datelor

Adesea, chiar şi cineva care s-a aplecat cu multă conştiinciozitate şi interes


asupra studiului statisticii, se află, la finalul efortului său academic, în faţa
unor întrebări aparent simple: cum aleg testul statistic potrivit datelor
cercetării? cum inserez analiza statistică într-o lucrare de cercetare? O sinteză
a răspunsurilor posibile la aceste întrebări ne propunem să facem în cele ce
urmează, cu scopul de a da o orientare strategică privind abordarea analizei
statistice a datelor în cercetările psihologice.

13.1. Alegerea testului statistic

În statistică, cel mai simplu lucru este „să aplici formula" şi să calculezi
rezultatul. Dificultatea constă în a alege „formula" (a se citi: procedura
statistică adecvată scopului propus şi datelor disponibile) şi a interpreta
rezultatul. Alegerea testului statistic potrivit este adesea una dintre
„încercările" cele mai mari prin care trece un tânăr cercetător. Nu de puţine
ori, aceasta este chiar prima problemă pe care şi-o pune, fără să îşi dea seama
că face, de fapt, prima mare greşeală. Alegerea testului statistic nu este prima,
ci ultima problemă pe care trebuie să o rezolve! Este adevărat că, pentru a
rezolva această problemă sunt necesare cunoştinţe de psihologie
experimentală, dar şi o experienţă destul de îndelungată în prelucrarea datelor.
Totuşi, situaţia poate fi mult uşurată dacă se urmează o serie de raţionamente
şi reguli de bază, pe care le vom prezenta în continuare.

1.Punctul de pornire este formularea ipotezei. Aceasta derivă din problema


cercetării şi se exprimă sub formă răspunsului pe care, în mod legitim,
cercetătorul se aşteaptă să îl confirme cu ajutorul datelor statistice.

Exemplu:
Problema cercetării: Într-un centru de dializă se observă că pacienţii
suferă de tulburări anxioase severe.
Modelul cercetării: Un program de reducere a anxietăţii bazat pe
exerciţii de relaxare, prezentate pe casete video este realizat pe un grup

345
de pacienţi. Se aplică un chestionar de evaluare a anxietăţii grupului
studiat şi unui grup de control, care nu a urmat programul de relaxare.
Ipoteza cercetării: Exerciţiile de relaxare reduc nivelul anxietăţii.
2.Se identifică variabilele cercetării. Pentru exemplul de mai sus:

Variabila independentă este „apartenenţa la grupurile cercetării".


Aceasta poate primi două valori convenţionale: ..1" pentru subiecţii care
au urmat şedinţe de relaxare: ,.2"pentru subiecţii din grupul de control.
Variabila dependentă este ..nivelul anxietăţii", măsurată pe o scală de
interval/raport.
3.Se recoltează datele cercetării, având grijă să fie respectate toate condiţiile
şi criteriile care să asigure corectitudinea acestora. Orice eroare în această fază
(în special cu privire la constituirea eşantionului, dar şi legată de motivarea
subiecţilor, corectitudinea înregistrărilor etc.) se vor traduce în dificultăţi
insurmontabile în faza de prelucrare şi analiză a datelor. În cazul nostru, se va
acorda constituirii grupurilor de studiu, având grija ca acestea să nu difere sub
aspectul unor aspecte care pot influenţa efectul relaxării(vârstă, nivel de
instruire, sex. severitate a bolii etc..).

4. Se sintetizează datele cercetării şi se trece la prelucrarea acestora.


Fazele obligatorii ale acestor prelucrări sunt următoarele:
- analiza preliminară a variabilelor, cu ajutorul procedurilor statistice
descriptive, având drept principale scopuri
• verificarea corectitudinii datelor,

• evidenţierea caracteristicilor distribuţiei fiecărei variabile, în vederea


alegerii ulterioare a testului statistic adecvat;

- corectarea eventualelor erori de înregistrare, rezolvarea situaţiilor în


care există date lipsă, transformarea variabilelor, dacă acest lucru se
impune (de reţinut faptul că nu este recomandabil să se transforme o
variabilă de interval/raport, a cărei distribuţii nu se abate de la forma
normală, într-o variabilă categorială, deoarece se pierde din puterea
statistică a testelor).
346
După parcurgerea acestor etape, în succesiunea lor firească, alegerea
testului statistic devine o problema relativ simplă. De fapt, pentru a fi şi mai
expliciţi, fără parcurgerea acestor etape identificarea testului statistic potrivit
nici nu este posibilă. Principalele componente ale algoritmului de selectare sunt
următoarele:

1) Se identifică variabila independentă


2) Se identifică variabila dependentă
a. dacă este de tip nominal/ordinal, se aplică un test neparametric:
b. dacă este de tip interval/raport şi:
I) dacă respectă condiţiile şi dacă, mai ales, eşantionul este
mare, se recomandă alegerea unui test parametric
II) dacă nu respectă condiţiile şi, mai ales, dacă eşantionul este
foarte mic, se recomandă alegerea unui test neparametric (în
acest caz valorile vor fi transformate pe o scală ordinală sau
nominală, în funcţie de caracteristicile lor şi opţiunea
cercetătorului)
3)Se precizează obiectivul cercetării, care poate fi, cel mai adesea:
a. diferenţa dintre grupuri dependente sau independente (ca în
exemplul nostru).
Acest model este mai potrivit în următoarele situaţii:
I) atunci când variabila independentă, prin natura ei, se exprimă
în categorii naturale (de ex.. categorii de vârstă, familii
divorţate/nedivorţate, sexul etc.)
II) atunci când variabila independentă exprimă valori care nu
evoluează într-o manieră liniară (de ex.. prezenţă/absenţă,
diagnostice psihiatrice, tipuri temperamentale)
III)atunci când variabila independentă este manipulată.
b. Gr a d u l de asociere. Acest model de cercetare este recomandabil
atunci când avem de a face cu variabile măsurate simultan sau
succesiv pe aceiaşi subiecţi modele de tip „înainte-după",
”intrasubiect"), sau pe subiecţi aparţinând unor eşantioane perechi.
347
În acest sens se vor lua în considerare următoarele două
recomandări:

1. atunci când, atât v. independentă cât şi v. dependentă sunt


de acelaşi tip (cantitative sau calitative), obiectivul obişnuit este
„gradul de asociere";
2. atunci când v. independentă este de tip categorial (nominal
sau ordinal), iar v. dependentă este de tip cantitativ, obiectivul
obişnuit este „diferenţa dintre grupuri (categorii)"
4 ) Se alege lestul statistic adecvat, dar, înainte de aceasta, să dăm
răspuns unei întrebări preliminare: ce este de preferat, test
parametric sau neparametric?
a)Dacă variabila dependentă este măsurată pe scală nominală sau
ordinală, problema alegerii nu se pune, singurele teste aplicabile
fiind cele neparametrice.
b) Atunci când variabila dependentă este exprimată pe o scală
cantitativă (interval/raport), dacă întruneşte condiţiile impuse de
statistica parametrică, este recomandabil să se utilizeze teste
parametrice. În acest caz însă trebuie avute în vedere două
aspecte:
1)Situaţia în care variabila dependentă cantitativă nu respectă
condiţiile testelor parametrice, în raport cu care există două
soluţii:
1.1. se vor efectua verificări pentru eventuala corecţie de valori,
tratarea valorilor lipsă, transformări parametrice, urmate de
utilizarea testelor parametrice
1.2. se transformă variabila dependentă pe o scală de tip nominal
sau ordinal, urmată de aplicarea unor teste neparametrice adecvate
2)Luarea în considerare a mărimii eşantionului. Teorema limitei
centrale ne asigură cu privire la normalitatea distribuţiei de
eşantionare pentru eşantioane care depăşesc N=30. Pentru
eşantioane de volum mediu (apropiat de 30 de valori), testele
348
parametrice sunt mai sensibile la respectarea condiţiilor
impuse şi, de aceea, utilizarea testelor neparametrice pare a fi o
soluţie mai bună. In practică, se va avea în vedere faptul că
testele statistice, atât cele parametrice cât şi cele neparametrice,
efectuate pe eşantioane reduse, sub N=20, nu oferă rezultate
robuste iar credibilitatea lor este îndoielnică.
Eşantioanele mici nu conţin suficientă informaţie care să permită
fundamentarea unei inferenţe statistice suficient de sigure şi cu
putere de generalizare. Studiile pe eşantioane de acest gen pot
avea o valoare de „studii pilot" în vederea deciziei de a lansa sau
nu studii de amploare pe o anumită temă. In legătură cu mărimea
eşantioanelor de cercetare se vor revedea
recomandările discutate în legătură cu puterea testelor statistice.

13.2. Algoritmul de alegere a procedurii statistice


In principiu, orice analiză statistică dintr-un proiect de cercetare
cuprinde două categorii de proceduri statistice, efectuate în etape succesive:
( 1 ) analiza statistică descriptivă şi (2) analiza de semnificaţie, prin aplicarea
unui test statistic.

1 ) Analiza statistică descriptivă

Tabelul următor prezintă în mod sintetic algoritmul de alegere a


procedurii descriptive adecvate, în funcţie de obiectivul analizei şi de tipul de
variabilă:

Tabelul 13.3. Alegerea statisticii descriptive


Obiectivul Scala de Condiţie Soluţie
descrierii măsurare
- tabela de frecvente
nominală
- graficul de tip bară
349
Reprezentarea întregii - distribuţia de frecvenţe
ordinală
distribuţii - graficul de tip bară
- distribuţia de frecvenţe
I/R - histograma
- poligonul de frecvenţe
nominală - modul
Măsura tendinţei ordinală - mediana
centrale simetrică media
I/R
asimetrică mediana
nominală - număr categorii
ordinală - amplitudinea
Măsura variabilităţii
simetrică abaterea standard
I/R
asimetrică amplitudinea

2. Testarea ipotezelor
În faza următoare analizei statistice descriptive se va proceda la iniţierea testării
ipotezelor cu ajutorul unui test statistic adecvat. Pentru a uşura alegerea testului
statistic, există diverse modele ajutătoare, dc tip algoritmic sub formă tabelară sau
grafică. In acest sens există numeroase posibilităţi de informare. Dintre acestea,
sugerăm utilizarea opţiunii Statistic Coach, pusă la dispoziţie dc programul SPSS
(din meniul Help). De asemenea, se poate apela la pagina
de internet ”Selecting Satistics" a Universităţii Cornell
(http://trochim.human.cornell.edu/selstat/ssstart.htm).
Mai jos prezentăm mai jos un algoritm sintetic care vizează alegerea testului
statistic pentru cercetări care pun in relaţie doar o singură variabilă independentă şi o
singură variabilă dependentă. Am cuprins în tabel, cu o singură excepţie (*), testele
statistice care fac obiectul cursurilor de introducere în statistica inferenţială. Desigur,
numărul testelor statistice este mult mai mare, fapt care poate face necesară dezvoltarea
algoritmului de alegere a testelor.
Tabelul 13.2. Alegerea testului statistic
Obiectivul Variabila Variabila Testul statistic
cercetării independentă dependentă aplicabil
I/R z/t pentru un eşantion
una
Nominală z pentru o proporţie

350
Diferenţ Categori
t pt. independent l/R
do
a dintre ală e Z şantioane
pentru două proporţii Nominală
uă Mann – Whitney U Ordinală
grupuri /nr.
t pt. eşant. dependente l/R
categori dependente testul semnului Nominală
i Wilcoxon Ordinală
indepen- ANOVA unifactorială I/R
Kruskal-Wallis Ordinală
tre dente
ANOVA pt. măsurări l/R
i+ repetate (*)
dependente
Ordinală Friedman
Interval/Raport l/R r Pearson
Asocierea
Ordinală Ordinală rs Spearman
variabilelor Categorial (Nominală sau Categorială Chi-pătrat
Redăm mai jos şiOrdinală)
un tabel orientativ pentru Testul exact Fischer
(N/O)alegerea testului statistic care
cuprinde, pe lângă situaţii de cercetare cu două variabile, situaţii în care sunt analizate
simultan mai mult de două variabile. O parte dintre testele evocate fac obiectul cursurilor
avansate de statistică, dar unele dintre ele se regăsesc şi în programa cursurilor de bază.
Tabelul 13.3. Alegerea testului statistic când există mai mult de două variabile
Variabila(e) dependente
Categoriale Interval raport
2
2+ categorii 1 VD 2+VD
categorii
Testul t ANOVA
Nominale- categoriale

2 categorii
One-way
2+ ANOVA
1 VI
categorii One-way
Variabila (e) independente

cu ANCOVA MANCOVA
covarianţă One way One way
fără Regresia ANOVA MANOVA
covarianţă logistică One-way One-way
2+VI
cu ANCOVA ANCOVA
covarianţă One-way One-way
Corelaţie
Bivariată
O singură VI Regresie
Interval -

Liniară
Simplă
Regresie
Mai multe VI Multiplă

351
Analiza Analiza

raport
Path Path

Notă explicativă:
VI = variabilă independentă:
VD= variabilă dependentă:
Variabilă covariantă = variabilă care variază concomitent cu
variabilele testate şi al cărei „efect" este eliminat statistic

13.3. Reguli de fixare a mărimii eşantioanelor de cercetare


Reputatul statistician şi psihometrician Jacob Cohen, într-un articol intitulat „Things I
Have Learnd (So Far)" (1990) îşi aduce aminte cum a învăţat în facultate că pentru
a compara două grupuri trebuie utilizate eşantioane de 30 de subiecţi, orice eşantion
mai mic de 30 fiind considerat ”eşantion mic". Mai târziu, când a descoperit analiza de
putere, a constatat că atunci când se compară două grupuri de câte 30 de subiecţi
fiecare, pentru un prag alfa=0.05, probabilitatea ca o diferenţă având o mărime medie
a efectului să atingă pragul de semnificaţie este de 0.47! Cu alte cuvinte, din 100 de
cercetări, abia în 47 de situaţii (mai puţin decât dacă decizia ar fi luată aleator) s-ar
obţine un rezultat care să nu fie doar semnificativ, dar să şi aibă o mărime a efectului
cel puţin medie. Iar dacă volumul eşantionului este de numai 20 de subiecţi, atunci
probabilitatea respectivă se reduce la 0.33!

Alte recomandări utile, pe lingă cele prezentate aici, se găsesc în EFPA review
model for the description and evaluation of psychological tests (Version 3.41:
August 2005) [Electronic Version). Retrieved 29 Oct. 2006 from http:
wuvv.efpa.be/ .
În mod evident, numărul subiecţilor are un impact direct asupra puterii
testului, adică asupra capacităţii acestuia de a detecta diferenţe "reale".
Mărimea efectului, la rândul ei, se referă la intensitatea asocierii(diferenţei)
dintre variabilele cercetării (Kraemer & Thiemann, 1987).
Ceea ce rezultă de aici este faptul că alegerea mărimii eşantionului, în
contextul diferitelor modele de cercetare, este un subiect care trebuie tratat cu
atenţie, dacă dorim să asigurăm cercetărilor noastre consistenţă sub aspectul
352
puterii şi al mărimii efectului. Desigur, ar fi de preferat ca aceste două aspecte
să facă obiectul unor evaluări cantitative dar, din păcate, majoritatea
pachetelor de programe statistice nu oferă astfel de proceduri. În practică, o
modalitate mulţumitoare de rezolvare a acestei probleme este dimensionarea
corespunzătoare a eşantioanelor, cu scopul de a asigura atingerea unor valori
acceptabile pentru puterea testelor statistice. în acest sens, o incursiune în
literatura statistică (Kraemer & Thiemann: 1987; Wilkinson, 1999; Wolins,
1982) ne oferă o serie de recomandări utile.

Volumul eşantioanelor (grupurilor) pentru testele utilizate in detectarea


diferenţelor dintre medii

Toate testele statistice care detectează diferenţele dintre grupuri se bazează pe o


anume distribuţie de eşantionare. Ca urmare, numărul subiecţilor din fiecare
eşantion are o legătura directă cu împrăştierea distribuţiei de eşantionare
(eroarea standard). Cu cât mai mulţi subiecţi în eşantion, cu atât împrăştierea
distribuţiei de eşantionare este mai mică şi şansa de a descoperi o diferenţă
semnificativă este mai mare (ceea ce înseamnă şi o putere a testului mai mare).
Dar puterea nu este legată numai de mărimea eşantionului, ci şi de mărimea
efectului. Pe măsură ce mărimea efectului creşte, creşte şi puterea testului. De
exemplu, dacă dorim să testăm efectul unei psihoterapii după două şedinţe, când
efectul este mic, testul statistic va avea ”putere mică", adică va avea şanse mai
reduse să releve un efect semnificativ decât, să zicem, după 12 şedinţe, când
efectul terapeutic va fi mai pronunţat.

Testul t pentru eşantioane independente, pentru eşantioane dependente,


analiza de variantă (ANOVA one-way sau factorială), la fel ca şi analiza de
variantă multivariată(MANOVA), sunt concepute pentru a testa semnificaţia
diferenţelor dintre mediile unor grupuri. Pentru a menţine un nivel acceptabil
pentru puterea testului, fiecare dintre grupurile comparate trebuie să aibă un
volum minimal, pentru a avea suficientă putere în detectarea diferenţelor şi, în
acelaşi timp, o nivel mediu-ridicat al mărimii efectului (VanVoorhis & Morgan,
2001. În acest scop, se consideră că 30 de subiecţi în fiecare celulă (definită prin

353
categoriile variabilei independente) sunt suficienţi pentru a garanta o putere de
0.8, ceea ce este un nivel minim pentru un studiu obişnuit (J. Cohen, l988).
Concret, pentru a ne putea baza pe o putere acceptabilă a testului:
- Pentru o cercetare în care sunt comparate mediile a două grupuri independente,
se vor utiliza cel puţin 60 de subiecţi (minim 30 pentru fiecare grup). Se observă
că, în cazul unei cercetări bazate pe un model intra-subiect, în care acelaşi grup
este măsurat în două (sau mai multe) situaţii diferite, este suficient un eşantion
de minim 30 de subiecţi pentru asigurarea unei puteri acceptabile. Acesta este
unul dintre avantajele modelului intra-subiect.
- Pentru o cercetare în care este utilizat testul ANOVA pentru o variabilă
independentă cu trei valori, eşantionul cercetării trebuie să fie compus din cel
puţin 3x30=90 de subiecţi. Dacă numărul de subiecţi din fiecare grup se reduce la
7, iar numărul grupurilor este de cel puţin trei, atunci puterea testului scade la
0.5. iar mărimea efectului este tot de 0.5. In cazul în care avem 14 subiecţi în
fiecare grup comparat, pentru cel puţin trei grupuri şi o mărime a efectului de
0.5, ne putem baza pe o putere a testului de 0,8.
In legătură cu testele de comparaţie a mediilor se atrage atenţia, în primul rând, că
atunci când sunt comparate mai puţine grupuri este mai important să existe mai mulţi
subiecţi în fiecare grup. In al doilea rând, cu cât mărimea efectului la care ne putem
aştepta este mai mică, cu atât numărul subiecţilor trebuie să crească, pentru
garantarea unei valori corespunzătoare a puterii testului (Aron & Aron, 1999).

Mărimea eşantionului atunci când se studiază relaţia (asocierea variabilelor)

Deşi acest lucru face obiectul unor formule complexe, regula empirică generală este de a
nu utiliza eşantioane mai mici de 50 de subiecţi în cazul analizei de corelaţie sau de
regresie simplă. In cazul corelaţiei şi regresiei multiple, în care sunt mai multe variabile
independente (criteriu), Green (1991) sugerează ca volumul eşantionului cercetării să fie
N>50+8m, unde m este numărul variabilelor independente, pentru corelaţii multiple şi
N>104+m, pentru regresia multiplă. Concret, pentru o analiză de corelaţie multiplă cu
patru variabile se vor utiliza 50+8x4=82 subiecţi, iar pentru o regresie cu 4 variabile
criteriu, se va asigura un eşantion de minim 104+4=108 subiecţi. Atunci când se

354
urmăreşte atât testarea corelaţiei cât şi a regresiei se recomandă eşantioane mai mari
decât acestea.

In acelaşi context sunt recomandate şi alte reguli empirice, astfel:


Pentru 5 sau mai mulţi predictori (sau variabile multiplu corelate) numărul
participanţilor va depăşi numărul predictorilor cu cel puţin 50. Altfel spus, totalul
participanţilor trebuie să fie mai mare decât numărul predictorilor cu cel puţin 50
(Harris. 1985);
Pentru ecuaţiile de regresie cu şase sau mai mulţi predictori se impune un minim de
10 participanţi pentru fiecare predictor, dar dacă situaţia o permite, şi mai bine este ca
să existe în jur de 30 de subiecţi pentru fiecare variabilă. Cohen şi Cohen (1975)
demonstrează că în cazul unei regresii cu un singur predictor care are o corelaţie cu
variabila predictor de 0.30, sunt necesari 124 subiecţi pentru a menţine o putere de
0.80. Cu cinci predictori şi o corelaţie multiplă de 0.30, aceeaşi putere este atinsă pe
un eşantion de 187 subiecţi.
O atenţie specială se va acorda simetriei variabilei dependente, deoarece în cazul
existenţei unei asimetrii, mărimea aşteptată a efectului este mică şi. implicit, puterea
testului este mai mică şi ea (Tabachnick & Fideli, 1996).

Volumul eşantionului pentru testul chi-pătrat pentru o valoare acceptabilă a


puterii

O regulă de siguranţă este ca in nici una din celulele tabelului de corespondenţă


frecvenţa teoretică să nu fie mai mică de 5, iar volumul total al eşantionului să nu fie mai
mic de 20. In cazul testului chi-pătrat. spre deosebire de alte teste statistice, creşterea
numărului subiecţilor nu are un impact asupra valorii critice de respingere a ipotezei de
nul. Totuşi, volumul eşantionului are un efect asupra puterii testului. Existenţa unor
frecvenţe teoretice (aşteptate) într-una sau mai multe celule ale tabelului de
corespondenţă limitează considerabil puterea testului. De asemenea, valori reduse ale
frecvenţelor aşteptate creşte nivelul erorii de tip I. Acesta este şi motivul pentru care se
recomandă un eşantion de cel puţin 20 de subiecţi (Howell, 1997).

Testul chi-pătrat este utilizat pentru testarea gradului de independentă (asociere)


dintre variabile categoriale. Ca urmare, nici un subiect nu trebuie să contribuie cu mai
355
mult de o singură valoare. La rândul lor, gradele de libertate au un anumit impact asupra
puterii testului. Cu cât numărul celulelor tabelului de corespondenţă creşte (care conduce
la creşterea gradelor de libertate), se reduc frecvenţele teoretice din celulele tabelului de
corespondenţă şi, implicit, are loc o reducere a puterii (Cohen. 1988). Şi totuşi, atunci
când se aşteaptă o mărime importantă a efectului, se consideră că poate fi tolerată
şi o valoare mai mică pentru puterea testului, implicit un volum mai redus al
eşantionului (minim 8).
Concluzii

Discuţia în jurul erorilor statistice, puterii testului şi mărimii efectului vine să


completeze raţionamentul statistic asociat cercetărilor psihologice. In ultimii ani,
din ce în ce mai mult se atrage atenţia asupra faptului că limitarea rezultatelor la
raportarea semnificaţiei statistice nu este de natură să ofere o informaţie
suficientă asupra relevanţei acestor rezultate. În acest scop, American
Psychological Association a elaborat un set de recomandări speciale, care
solicită cercetătorilor publicarea, alături de semnificaţia statistică a mărimii
efectului testelor utilizate (APA, 2001). Ca urmare, din ce în ce mai multe reviste
de specialitate care se respectă pretind includerea acestui indice în completarea
semnificaţiei statistice.

13.4. Integrarea analizei statistice în documentul de cercetare

In cele ce urmează, vom trece în revistă principalele „capitole" ale unui


raport de cercetare (studiu, articol) şi modul în care elementele analizei
statistice trebuie să fie abordate în cadrul fiecăreia dintre ele. Respectarea
acestei recomandări, uzuale în mediul ştiinţific, are rolul de a asigura un
anumit nivel de standardizare a redactării, pe de o parte, iar pe de altă parte,
acela de a facilita controlul calităţii cercetării şi comparabilitatea rezultatelor
obţinute de cercetători diferiţi (Wilkinson, 1999).

Aşa cum a reieşit pe parcursul tematicii abordate, metodologia statistică este


subordonată unui anumit demers ştiinţific. Materializarea sa într-un document de
analiză şi concluzii (care poate fi un raport de cercetare, un articol ştiinţific sau o
comunicare etc.) se face după un model care are, în linii generale, o anumită
356
structură. În cele ce urmează, vom trece în revistă o serie de recomandări
generale cu privire la modul în care trebuie abordată analiza statistică in
cuprinsul unui material de cercetare, pentru fiecare secţiune în parte:

13.5. Prezentarea cadrului general al cercetării

Ipotezele. Se va urmări exprimarea cu claritate a tipului de studiu statistic care a


fost efectuat, şi a scopurilor care au fost urmărite. În cazul în care acestea sunt
mai multe, vor trebui prezentate toate, de la bun început, inclusiv ordinea de
prioritate a fiecăruia. Prezentarea paralelă a ipotezelor de nul, deşi pare logică,
îngreuiază lectura şi produce confuzie. Ca urmare, se va emite numai ipoteza
cercetării, ipoteza de nul fiind considerată, implicit, opusul ei, fără a mai fi
necesară enunţarea acesteia. Se face referire explicită la ipoteza de nul în
momentul deciziei statistice, când se afirmă acceptarea sau respingerea acesteia.

Testarea ipotezelor nu este însă obligatorie în toate situaţiile de cercetare. Dacă


o anumită cercetare abordează un subiect nou, neinvestigat anterior, metodele
statistice exploratorii sunt mai potrivite decât cele de testare a ipotezelor.
Dacă tema respectivă a fost intens studiată anterior, atunci este mai
recomandabil un studiu de meta-analiză decât o nouă testare a ipotezei.
Uneori, autorii se limitează la prezentarea explicită a obiectivelor renunţând la
enunţarea specifică a unor ipoteze. Acest lucru este justificat fie prin faptul că nu
au un fundament solid pentru emiterea ipotezelor, fie pentru că apreciază că
emiterea ipotezelor înainte de colectarea datelor poate introduce un element de
orientare a acestui proces în direcţia rezultatului aşteptat (bias).
Populaţia. Interpretarea rezultatelor unui studiu depinde de caracteristicile
populaţiei pentru care se intenţionează analiza. Populaţia trebuie definită cu
claritate, în sensul elementelor care o compun. Nu trebuie uitat sensul statistic
al conceptului de populaţie, care se referă nu atât la indivizi umani, cât la
totalitatea valorilor unei caracteristici care îi defineşte şi care face obiectul
analizei. Cu alte cuvinte, populaţia nu trebuie privită ca o clasă de obiecte ci ca
o colecţie de date care descriu o anumită caracteristică a respectivelor obiecte.

357
Desigur, în cele din urmă rezultatele statistice se vor extrapola la nivelul unei
populaţii constituită din indivizii pentru care respectiva caracteristică a fost
măsurată.
Eşantionul. Se va descrie modul de constituire a eşantionului, insistându-se pe
criteriile de includere şi, eventual, de excludere a unor indivizi (sau valori).
Dacă eşantionul este stratificat (după provenienţă, sex etc..), se vor descrie
criteriile de stratificare şi volumul de subiecţi pentru fiecare subgrup.

13.6. Prezentarea metodei şi a condiţiilor investigaţiei, precum şi a lotului de


subiecţi
Variabilele. Variabilele analizate vor fi descrise în mod explicit, indicându-
se denumirea şi semnificaţia fiecăreia, modul în care au fost măsurate şi unitatea
de măsură. Atunci când declarăm o variabilă, precizăm implicit şi domeniul
valorilor valide. Dacă, de exemplu, definim o variabilă care poate lua valori pe o
scală de la 1 la 7 (pe o scală cu răspunsuri predefinite), orice valoare dincolo de
domeniul respectiv va fi eronată. Modul de denumire al variabilelor este
important. Astfel, în loc de „inteligenţă" este de preferat denumirea de „rezultat
la testul de inteligenţă." Aceasta, pentru că inteligenţa este o realitate oricum
mai complexă decât ceea ce măsurăm printr-o anumită variabilă. Cu alte cuvinte,
excesiva generalizare a variabilelor trebuie evitată.

Instrumentele de măsurare. Este recomandabil să fie prezentate cu o


descriere (cel puţin) sumară, inclusiv cu caracteristicile lor psihometrice
(validitate, consistenţă internă). Dacă este vorba de un aparat sau de un
program de calculator, se vor indica tipul si, eventual, sursa, pentru a putea fi
căutate şi de alţi cercetători care vor dori să efectueze o replicare a respectivului
studiu.

Procedura. Prezentarea modului în care a decurs procedura de investigare,


descrierea condiţiilor, a duratei, locului, şi a personalului care a contribuit la
aceasta. Se va acorda atenţie modalităţilor de control al surselor de eroare
(limitarea efectului variabilelor covariante, eliminarea erorilor de măsurare).

358
13.7. Prelucrarea datelor
Se va începe cu eventualele complicaţii care au survenit pe parcursul studiului.
Aici se includ datele lipsa (care nu au putut fi recoltate, din diverse
motive),modul de rezolvare a valorilor excesive din cadrul distribuţiilor,
dificultăţile de organizare care au putut influenţa calitatea informaţiilor recoltate
etc.. In general, orice aspect relevant care se referă la abaterea de la condiţiile
prevăzute pentru desfăşurarea studiului trebuie prezentate.

Analiza primară . Analiza statistică va începe întotdeauna cu o inspecţie a valorilor


obţinute. Aceasta înseamnă analiza distribuţiilor sub aspectul formei, indicatorilor
tendinţei centrale, valorilor excesive etc. Ignorarea acestui aspect poate conduce
la grave erori de interpretare, sau la un volum mai mare de muncă, ulterior, dacă
se constată prea târziu imperfecţiuni care trebuiau fi eliminate de la bun început.
Reprezentarea grafică a datelor(histograma) poate fi o metodă foarte eficientă de
identificare a distribuţiilor anormale sau valori improprii.

Scopul acestei analizei primare a variabilelor este dublu:

- obţinerea unei imagini de ansamblu a variabilelor de interes (frecvenţe,


tendinţa centrală, împrăştierea, grafice);

- fundamentarea alegerii testelor statistice adecvate datelor pe care le analizăm;


Desigur, în documentul de cercetare nu se vor include toate rezultate analizei
primare, ci numai acelea strict necesare pentru descrierea variabilelor analizate.
De exemplu, nu este necesar ca raportul să fie „împănat" cu histogramele fiecărei
variabile cantitative, fapt care încarcă nejustificat textul cu imagini puţin
relevante pentru cititor. De asemenea, nu se va descrie şi nu se va justifica
alegerea testului statistic, in funcţie de natura variabilelor. Acest lucru se
consideră implicit.

Verificarea ipotezelor statistice . Acesta este momentul cel mai important al


unei cercetări, acela în care se concretizează întregul efort depus. Primul lucru
care trebuie înţeles este acela că rezultatele care se vor obţine depind în mod
decisiv de calitatea şi minuţiozitatea cu care au fost parcurse etapele anterior

359
descrise. Un studiu bine fundamentat teoretic, bazat pe ipoteze consistente,
utilizând instrumente adecvate şi beneficiind de o procedură sigură de recoltare a
datelor, va conduce întotdeauna la rezultate utile. Aceasta nu înseamnă neapărat
că ele trebuie să confirme ipotezele. Uneori, chiar şi infirmarea unei ipoteze
poate fi semnificativă.

Un aspect important aici este alegerea aparatului statistic (teste de


semnificaţie). Apariţia numeroaselor programe de prelucrare statistică
computerizată a condus la orientarea multor cercetători, mai ales tineri sau
începători, spre proceduri sofisticate şi complicate. Cea mai bună soluţie este
alegerea procedurilor statistice minim necesare pentru evidenţierea ideilor
urmărite. Abundenţa de calcule şi de teste statistice nu contribuie la o mai bună
înţelegere ci arată, mai degrabă, nesiguranţa cercetătorului. Una dintre
prejudecăţile răspândite, mai ales printre studenţi, este aceea că există teste
statistice ”importante'" (de ex.. analiza factorială, analiza de clusteri etc, despre
care nu a fost vorba în acest manual introductiv în statistică) şi altele ”mai puţin
importante'" (testul diferenţelor între medii etc.). Complet fals! Alegerea unei
proceduri statistice mai „sofisticate" putea face o anumită impresie în epoca de
dinaintea programelor de calcul statistic. In prezent, orice procedură, oricât de
complicată, nu mai reprezintă o problemă sub aspectul calculelor, pentru nimeni.
Singurul lucru care contează cu adevărat este alegerea procedurii potrivite cu
natura datelor şi cu obiectivele cercetării, precum şi interpretarea ei corectă.
Dacă o procedură „simplă'* serveşte exact ideea care trebuie scoasă in evidenţă,
aceasta trebuie folosită şi nu alta, cu un nume mai „sonor". Să ne gândim şi la
faptul că avem mai multe şanse ca procedurile ”simple", uzuale, să fie înţelese
mai uşor şi de către mai mulţi cititori.
In ceea ce priveşte testarea ipotezelor , nu este suficientă expresia
„acceptăm" sau „respingem" ipoteza. întotdeauna se va indica şi valoarea exactă
obţinută pentru nivelul de semnificaţie (de ex„ "p>=0.037", şi nu doar decizia de
acceptare sau respingere, de ex„ "p < .05" or "p > .05"). De reţinut că, inclusiv
atunci când rezultatul obţinut nu îndreptăţeşte respingerea ipotezei de nul.
Ipoteza cercetării va fi considerată doar neconfirmată şi nu respinsă. Această
360
atitudine este mai potrivită pe de o parte, cu modelul probabilistic de testare
statistică a ipotezelor şi, pe de altă parte, cu faptul că nimic nu ne împiedică să
păstrăm ipoteza şi să încercăm confirmarea ei într-un alt studiu.
Problema variabilelor multiple. Dacă în exemplele din manualele de
statistică sunt luate în discuţie, de regulă, situaţii simple cu minimum de variabile
posibile, cel mai adesea, două. In realitate, cel mai adesea, studiile de psihologie
trebuie să facă faţă unei „avalanşe*" de variabile a căror relaţie trebuie testată
nu doar una câte una ci şi în interdependenţa lor. Acest fapt ridică, pe de o
parte, probleme de procedură statistică şi, pe de altă parte, probleme de
prezentare a rezultatelor. Alegerea procedurii astfel încât să surprindă exact
relaţiile care interesează, cu excluderea influenţelor colaterale, este, din păcate,
greu de explicitat la nivelul unui manual introductiv. În legătură cu forma de
prezentare, trebuie avută în vedere necesitatea de a fi, în egală măsură, sintetici
şi expliciţi. Sintetici, pentru a nu îngreuna textul cu o abundenţă excesivă de
tabele de date, expliciţi, pentru că nu pot fi eludate informaţiile esenţiale care
sunt necesare pentru interpretarea rezultatelor.
Reţinere fată de declararea relaţiei cauzale . Aprecierea pe baza unui test
de semnificaţie statistică a unei relaţii de cauzalitate între variabile este cel puţin
hazardată. Acest lucru poate fi susţinut numai dacă se respectă anumite condiţii
experimentale, care să ne asigure că între cele două variabile este o relaţie
cauză-efect. Nu se vor emite concluzii de tip cauzal în afara situaţiilor în
care recoltarea datelor decurge dintr-un demers de tip experimental.
Chiar şi procedurile statistice care sunt destinate determinării relaţiilor cauzale
(ecuaţiile de modelare structurală, analiza de cale) nu sunt pe deplin sigure în
detectarea relaţiei cauză/efect (Huck, 2004).

Tabele şi figuri. Tabelele sunt cel mai des utilizate pentru includerea în textul
rapoartelor de cercetare a rezultatelor obţinute. Ele prezintă avantajul indicării cu
exactitate a valorilor şi susţinerii cu precizie a concluziilor. Figurile au însă
avantajul de a prezenta informaţia într-o formă intuitivă şi accesibilă, atrăgând
atenţia cititorului. Nu se poate face o recomandare de preferinţă pentru una sau

361
alta dintre cele două forme. Oricum, este de reţinut că figurile ocupă mult spaţiu
tipografic şi sunt mai „pretenţioase" din punctul de vedere al editării şi al
tehnoredactării textelor. În orice caz, se vor evita figurile prea complexe. Este
recomandabil ca fiecare grafic să prezinte o singură idee, pe care să o susţină
cât mai simplu şi mai explicit. Atunci când se utilizează tehnici de ilustrare
grafică se vor prefera formele mai noi (box-plot, stem and leaf). Graficele si
tabelele vor fi numerotate distinct si vor avea un titlul explicit.

13.8. Discutarea şi interpretarea rezultatelor


Adevărata încercare într-un demers de cercetare nu este, aşa cum s-ar
putea crede, prelucrarea efectivă a datelor. Dacă sunt corect recoltate şi
înregistrate, prelucrarea lor se face destul de uşor cu ajutorul programelor
computerizate existente astăzi. Interpretarea, însă, este o probă pentru oricine
se află în faza de finalizare a unei cercetări.

Premisa fundamentală a unei interpretări consistente este suportul


teoretic, claritatea şi consistenţa ipotezei sau ipotezelor cercetării. Este imposibil
să tragi concluzii dacă nu eşti conştient de obiectivele urmărite. Adesea se cade
pradă iluziei că, indiferent de ce date dispunem, se poate susţine un demers de
cercetare doar cu ajutorul unui program de calcul statistic sofisticat şi a unui set
de date oarecare. Din păcate, se întâmplă destul de des ca un student să vină şi
să spună: „am aceste date, ce teste statistice pot face cu ele?". Obiectivul
cercetării trebuie să fie clar precizat de la bun început, în timp ce alegerea
procedurii statistice ţine de natura scalei de măsurare, caracteristicile variabilelor
şi ipotezei pe care trebuie să o testăm. Dacă fiecare dintre aceste aspecte sunt
clare în mintea cercetătorului, atunci răspunsul la întrebarea de mai sus este
foarte uşor de dat.
Se va urmări, pe de o parte, coerenţa dintre concluzii şi datele pe care se
sprijină, iar pe de altă parte, dintre concluzii şi condiţiile specifice cercetării
(eşantion, model de investigare). Cu alte cuvinte, fiecare aspect al concluziilor
trebuie să aibă un suport robust în datele şi rezultatele obţinute prin prelucrarea
lor. Se va evita generalizarea necritică. Transpunerea anumitor rezultate dincolo
362
de limitele populaţiei cercetării este adesea hazardată. Rezultatele obţinute nu
sunt mai puţin importante dacă păstrăm prudenţă în generalizarea lor. Studii
ulterioare pot confirma sau nu datele obţinute şi, pe această bază, se poate
extinde generalizarea semnificaţiilor.
În altă ordine de idei, relevanţa rezultatelor nu depinde doar de
atingerea nivelului de semnificaţie statistică, ci şi de mărimea
eşantionului. In principiu, aceste două mărimi contribuie împreună la
fundamentarea concluziilor, astfel:
Tabelul 13.4. Nivelul semnificaţiei statistice în funcţie de mărimea eşantionului
rezultat eşantion concluzia cercetării
semnificativ
Da mic rezultat important

Da mare importanţa practică posibilă, dar


incertă
Nu mic rezultat neconcludent

Nu mare ipoteza cercetării este, probabil,


falsă
Un alt aspect important este interpretarea semnificaţiei statistice.
Obiectivul legitim al testelor statistice este atingerea pragului de semnificaţie.
De aceea, valoarea lui p este prima care trebuie să ne atragă atenţia la capătul
prelucrărilor, simţindu-ne răsplătiţi pentru eforturile făcute, dacă se află sub
pragul de 0.05. Cu toate acestea, nu trebuie să uităm nici un moment că
„statistic semnificativ" nu este echivalent cu „ştiinţific important'*. Dincolo de
valoarea lui p se impune luarea în considerare şi mărimea în sine a diferenţei
sau legăturii puse în evidenţă de respectivul test statistic. Desigur, o valoare
ridicată a testului, fără atingerea pragului de semnificaţie, nu este relevantă.
Dar nici valoare prea mică, chiar dacă este semnificativă statistic. Cât de mică
sau cât de mare trebuie să fie valoarea testului, pentru a o considera
„importantă" sau „relevantă"? Din păcate, pentru această întrebare nu există
un răspuns riguros. Se recomandă apelul la spiritul ştiinţific şi la simţul comun,
concomitent cu raportarea la natura specifică a fiecărei situaţii în parte. Cu alte
363
cuvinte, răspunsul depinde de contextul fiecărei cercetări în parte. Din acest
motiv, raportarea mărimii efectului este una dintre soluţiile recomandate cu
insistenţă în ultimii ani.
O altă problemă de discutat este în legătură cu valoarea în sine a lui p.
După cum ştim, nivelul minim pentru acceptarea semnificaţiei statistice este 0.05,
corespunzător valorii convenţionale minim acceptabile pentru pragul alfa. Vorbind
în sens strict, un p=0.049 este considerat semnificativ, în timp ce un p=0.051
trebuie sa fie considerat nesemnificativ. Având în vedere că pragul alfa =0.05 este
unul arbitrar, nu se poate evita un astfel de raţionament rigid. Cu toate acestea,
există cercetători care raportează rezultate ale lui p uşor mai mari decât 0.05 ca
fiind „marginal semnificative" sau „aproape semnificative". Să menţionăm, totuşi,
că o astfel de atitudine este destul de rar întâlnită şi poate determina reacţii
negative, justificate, din partea cercetătorilor mai „riguroşi", aflaţi în majoritate.
In mod intuitiv, suntem tentaţi să interpretăm nivelul de semnificaţie în
funcţie de valoarea calculată a lui p. Astfel, un p=0.001 ni se pare mai
semnificativ decât un p=0.05, de exemplu. Dacă utilizăm definiţia strictă a
termenului de semnificaţie din raţionamentul deciziei statistice, o astfel de
atitudine nu este justificată. O dată ce a fost fixat un anumit nivel al lui alfa.
orice p mai mic sau egal cu acesta este semnificativ, iar orice p mai mare este
nesemnificativ. Cei mai mulţi statisticieni împărtăşesc această opinie. Cu toate
acestea, există şi cercetători mai puţin „rigizi" care sunt dispuşi să asocieze
valorii lui p anumite calificative, astfel:

p>0.05 nesemnificativ Fără a fi greşite, astfel de

0.01-0.05 semnificativ formulări nu aduc, totuşi, o

0.001-0.01 foarte semnificativ interpretare relevantă pentru

p<0.001 extrem de semnificativ decizia statistică. Este util sa


adăugăm că programele de
prelucrări statistice afişează ..0.000" pentru valori ale lui p mai mici de 0.0005.
Acest fapt nu va fi interpretat în nici un caz ca exprimând probabilitate ..zero", ci
doar în sensul că valoarea lui p este mai mică de 0.0005. De altfel, la raportarea
semnificaţiei se poate opta, fie pentru înscrierea valorii exacte a lui p aşa cum
364
este calculată de program, fie doar pentru menţionarea plasării valorii testului
sub nivelul alfa stabilit.

13.9. Formularea concluziilor


Studiul trebuie să se încheie cu concluzii adecvate cu rezultatele
obţinute, formulate sintetic şi explicit. Nu se vor evita aspectele mai puţin
reuşite ale cercetării, eventualele nereuşite, chiar. Rostul acestora este acela
de a ajuta la evitarea repetarea unor greşeli de către cei care vor dori să reia
acelaşi tip de investigaţie, mai târziu. Se pot face chiar recomandări explicite în
acest sens. Oricât de semnificative ar fi rezultatele unui anumit studiu, ele nu
vor schimba modul de a gândi o anumită realitate psihologică. Acest efect nu îl
pot avea decât rezultate obţinute de mai multe studii concordante pe aceeaşi
temă.

Nu se va uita niciodată faptul că semnificaţia statistică nu ţine loc şi de


semnificaţie teoretică, cu sensul de consistenţă a unui anumit model teoretic
explicativ. Procedurile statistice nu sunt altceva decât instrumente de evaluare
probabilistă a ipotezelor. Profunzimea teoretică a unui studiu nu poate rezulta
decât din calitatea modelului de investigaţie (ipoteze, proceduri de evaluare,
subtilitatea analizei rezultatelor etc.) şi nu din datele statistice ca atare. Statistica
trebuie să fie o modalitate de organizare şi disciplinare a gândirii ştiinţifice. În
nici un caz, însă, nu se poate substitui acesteia. Dar nu se poate ajunge la
această performanţă decât dacă statistica este înţeleasă atât sub aspecte ei „tari"
cât şi cu limitele ei.
In trecut, la începuturile utilizării statisticii în psihologie, prezenţa acesteia
într-o lucrare avea un caracter de prestigiu, cu atât mai mare cu cât era mai
bogat reprezentată. În prezent, omniprezenţa calculatoarelor şi a programelor
specializate au făcut ca prelucrările statistice să devină o operaţiune relativ
facilă. Tocmai din acest motiv, apare riscul abuzului de statistică, a utilizării
necritice şi superficiale a acesteia în elaborarea lucrărilor de cercetare.
În fine, ca o concluzie a celor spuse, se cuvine să insistăm pe respectarea
exigenţelor procedurale impuse de metoda statistică. Simpla „populare" a unei
365
lucrări cu date statistice, tabele, grafice, sau cu valori ale unor teste de
semnificaţie, nu asigură în mod necesar acelui document valoarea ştiinţifică la
care aspiră. Asigurarea calităţii datelor supuse prelucrării, respectarea condiţiilor
de alegere a testelor de semnificaţie, interpretarea lor adecvată şi publicarea
rezultatelor în formatul adecvat, sunt condiţii indispensabile pentru calitatea
ştiinţifică a unui studiu bazat pe metoda statistică.

13.10. Greşeli frecvente în redactarea analizelor statistice


Lectura celor mai multe dintre lucrările efectuate de studenţi scoate în
evidenţă nerespectarea recomandărilor prezentate mai sus. Efectul constă in
consemnarea unor greşeli, dintre care cele mai frecvente şi mai supărătoare ni se
par a fi următoarele:

1.Formulare improprie a ipotezelor sau concluziilor cercetărilor, prin utilizarea unor


termeni care sugerează relaţia de cauzalitate („influenţează". ..determină"). Se
ignoră faptul că testele statistice nu susţin existenţa unei relaţii de cauzalitate
decât dacă datele sunt recoltate în condiţii de experiment psihologic.

2.Includerea în lucrare a ipotezelor de nul. În paralel cu cele ale cercetării.


Acestea din urmă sunt singurele necesare şi suficiente.
3.Ostentaţie in prezentarea rezultatelor prelucrărilor statistice. Cifrele tind să
fie mai multe decât explicaţiile şi analizele. Această manieră creează impresia
neplăcută de ”paradă de statistică". Statistica trebuie sa rămână o prezenţă
discretă, al cărui rost este doar acela de a susţine concluziile cercetării.
4.Intrarea în detalii de analiză a datelor, inclusiv în descrierea didacticistă a
respectării condiţiilor pentru aplicarea diverselor teste statistice. Este corect
însă, să fie evocate eventualele aspecte deosebite, cum ar fi valori excesive
legitime sau operaţii de transformare a unor variabile, cu scopul normalizării
distribuţiei.
5.Includerea integrală a rezultatelor calculate de programe pentru diverse
proceduri. Unele dintre acestea conduc la un mare volum de rezultate
numerice. Nu toate trebuie reproduse ci numai acelea care susţin in mod direct
şi explicit concluziile cercetării.
366
6.Raportarea incompletă sau absenţa rezultatelor la testele statistice
(enunţarea deciziei statistice şi a concluziei cercetării nu este suficientă, ea va
fi însoţit întotdeauna de valorile testului şi de valorile adiacente acestuia).
6.Exces de zecimale în prezentarea rezultatelor la prelucrări. De regulă,
valoarea testelor statistice se raportează cu două zecimale iar probabilităţile
aferente ipotezei de nul, cu trei zecimale.

7.Reproducerea rezultatelor din programele statistice cu păstrarea elementelor


de text în limba engleză (atunci când lucrarea este scrisă în limba română).
8.Explicaţii inconsistente la tabele şi grafice. Oricât de explicite ar fi acestea,
cititorul nu va fi lăsat să şi le explice singur.
9.Grafice sau tabele fără titlu.
10.Absenţa coeficienţilor de consistenţă internă pentru testele care nu
fac parte din metodologia profesională generală, sau, încă şi mai grav, pentru
cele create de autor, şi pe care se bazează respectiva cercetare.
11.Instrumente de lucru (teste) prezentate integral în textul lucrării. Acestea
se descriu la modul general, fiind prezentate integral, eventual, doar la sfârşitul
lucrării, în caz că se doreşte difuzarea lor.
12.Transformarea valorilor primare (brute) ale datelor de cercetare, obţinute
prin aplicarea unor teste, în valori etalonate. In acest caz se ignoră un adevăr
elementar: etalonarea este o modalitate de interpretare a rezultatului la un test
cu scopul diagnosticului individual. Altfel spus, etalonarea este necesară în
practica psihologică, în ce priveşte cazul cercetării statistice, scorurile (primare)
brute sunt perfect utilizabile pentru testarea ipotezelor, deoarece obiectivul
oricîrei cercetări este, de regulă, relaţia dintre variabile. De asemenea, este
neproductiv să transformăm valori de tip cantitativ, exprimate pe scală de
interval sau de raport, în variabile calitative, exprimate pe scale ordinale, cum
este cazul etaloanelor în percentile, decile, stanine etc. În fine, prin
transformare în valori etalon variabilitatea valorilor se reduce , ceea ce
conduce, alături de diminuarea nivelului de măsurare, la reducerea puterii
statistice a testului.
13.11.Exerciţii
367
(de aplicare a algoritmului de alegere a procedurii statistice, Anexa 10):

Citiţi contextul experimental şi alegeţi procedura adecvată, în funcţie de


obiectivul analizei şi de tipul de variabilă. Atenţie, pentru rezolvarea exerciţiilor
variabilele vor fi luate în considerare sub forma prezentată, fără a fi
transformate pe o altă scală de măsurare!

1. Un eşantion de elevi piloţi este testat sub aspectul capacităţii de


rezolvare a unei sarcini de reprezentare spaţială (exprimat prin numărul
răspunsurilor corecte şi viteza de rezolvare), cu scopul de a vedea în ce măsură
aceasta este influenţată de numărul orelor de zbor acumulate în carieră
(exprimate ca atare).

2. Un eşantion de dreptaci, unul de stângaci şi unul de ambidextri au fost


testaţi sub aspectul capacităţii de recunoaştere tactilă, fiecare subiect este
testat pentru ambele mâini, ca urmare, se pot face diferenţele de performanţă
obţinute cu cele două mâini. Cercetătorul măsoară numărul obiectelor corect
identificate cu fiecare mână.

3. Un profesor ţine sub observaţie copii din trei categorii de familii: cu un


singur părinte, care lucrează: cu doi părinţi, ambii părinţi având serviciu, cu doi
părinţi, din care numai unul are serviciu. Pentru fiecare copil este măsurat
numărul de intervenţii fără a fi întrebat. Pe ansamblu, rezultatele arată că cei
mai mulţi copii obţin scorul 0, un număr mare obţin 1 sau doi, şi câţiva obţin
scoruri mari.

(Verificaţi răspunsurile corecte la secţiunea 14. Rezolvări şi explicaţii la


exerciţiile din volum, Capitolul 13, exerciţiile 13.11)

368
Secţiunea 14. Rezolvări şi comentarii la exerciţiile din volum

Capitolul 2 Concepte fundamentale

Exerciţiile 2.9

1.Daţi câte două exemple, cel puţin, de variabile pentru fiecare tip de scală de
măsurare.
-scală nominală:genul masculin/feminin, temperamentul sangvinic, flegmatic,
coleric, melancolic
-scală ordinală:studii primare, gimnaziale, liceale, universitare, masterale, doctorale,
postoctorale, scorul(punctajul) brut obţinut la un test psihologic
-scală de interval:coeficientul de inteligenţă, scorurile standard la testele de
aptitudini şi de personalitate
-scală de raport:greutatea corporală, înălţimea, vârsta cronologică, timpul, distanţa
2.Daţi câte două exemple din fiecare tip de variabilă continuă/discretă,
independentă/dependentă.
-variabilă continuă:înălţimea unui individ, timpul vizual de reacţie în secunde, media
obţinută la absolvirea liceului,facultăţii
-variabilă discretă:nota obţinută la un examen, scorurile la teste exprimate în
numere întregi, numărul de copii dintr-o familie, numărul zilelor de concediu de odihnă,
numărul de absenţe de la şcoală
-variabilă independentă:ereditatea în raport cu coeficientul de inteligenţă, numărul
orelor de învăţare în raport cu performanţele academice, tehnicile psihoterapeutice
pentru înlăturarea unor tulburări psihice, concentrarea atenţiei în raport cu performanţa
la testele cognitive
-variabilă dependentă:concentrarea atenţiei în raport cu metodele de antrenament
mental, agreabilitatea unei persoane ca urmare a comportamentului altruist al acesteia
în relaţiile cu ceilalţi

369
3.Într-un studiu asupra efectului laptelui cald consumat seara, înainte de culcare,
asupra timpului până la adormire, care este variabila dependentă şi cea independentă?
-timpul pînă la adormire: variabilă dependentă
- efectului laptelui cald consumat seara: variabila independentă
4.Daţi un exemplu de variabilă măsurată pe toate cele trei tipuri de scală(nominală,
ordinală, interval-raport I/R), precizând unitatea de măsură.
Înteligenţa generală a unui individ:încadrarea tipologică a persoanei, prin observaţie,
ca aparţinând tipului inteligent, studios, , harnic, etc.(scală nominală).; evaluarea
nivelului de inteligenţă al unei persoane ca fiind mai inteligent sau mai puţin inteligent,
în comparaţie cu alte persoane de acelaşi fel(vârstă, nivel de şcolaritate), folosind ca
unitate de măsură, numai scorul brut(punctajul), obţinut la un test de inteligenţă(scala
ordinală);evaluarea nivelului de inteligenţă prin raportarea scorului brut obţinut la un
test de inteligenţă, la o normă etalon realizată pe un eşantion reprezentativ de subiecţi
asemănători (d.p.d.v. vârstă, nivel de şcolaritate, gen masculin sau feminin), cu
subiectul evaluat(scală I/R), stabilindu-se pe această cale scorul standard obţinut de
subiectul evaluat de această dată cu precizie şi stabilindu-i-se unde i se plasează
performanţa în raport cu nivelul mediu înregistrat de subiecţii lotului său de referinţă.
5.Pe ce scală se exprimă fiecare dintre următoarele variabile:
a)numele subiectului - scală nominală
b)greutatea (kg) - raport (scală cantitativă) înălţimea (cm) - raport (scală cantitativă)
c)sexul (M/F) - nominala (dihotomică)
d)sportul practicat - nominală (categorială)
e)poziţia în clasament – ordinală
f)numărul de accidentări - raport (categorială)
g)poziţia în clasament – ordinală
h)numărul de accidentări –raport
i)scalele de măsurare:nominală, ordinală,interval şi raport- ordinală
Observaţie: Din perspectiva utilizării în analize statistice, diferenţa dintre nivelul de
interval şi cel de raport nu este relevantă. De aceea, în practică, este important sa
facem distincţia între nivelul cantitativ (interval/raport) si calitativ (ordinal sau nominal).
6.Identificaţi în următoarele exemple scala de măsurare pentru variabilele evidenţiate
cu caractere cursive:
d) Distanţa parcursă de muncitorii unei fabrici de acasă până la locul de muncă;
Scala de raport (cantitativă)
e) Numărul de angajări la o firma de construcţii în fiecare semestru al anului; Scala
nominală (categorială).
f) Numărul de voturi pozitive pe care le primeşte fiecare dintre cei trei candidaţi la
un concurs de conducere- Scală nominală de identificare (identitatea candidaţilor)

370
7.Într-o cercetare se urmăreşte eficienţa a trei metode psihoterapeutice asupra
intensităţii manifestărilor anxioase. Care este variabila dependentă şi care este variabila
independentă?
Variabila dependentă = intensitatea manifestărilor anxioase
Variabila independentă = tipul de metodă terapeutică
8.Într-un studiu asupra efectului laptelui cald consumat seara, înainte de culcare,
asupra timpului de adormire, care este variabila dependentă si cea independentă?
Variabila dependentă = timpul de adormire
Variabila independentă = consumul de lapte (cu valorile: prezent, absent)
9.Un cercetător a aplicat unui eşantion de subiecţi doua chestionare, unul de
sociabilitate si unul de încredere în sine, urmărind să dovedească că persoanele
sociabile au o încredere în sine mai ridicată.
In acest caz:
a)Care este tipul cercetării corelaţional sau experimental? Corelaţional
b)Care este variabila dependentă?
Aşa cum este formulată întrebarea , încrederea in sine este variabila dependentă (efect).
c)Care este variabila independentă?
Aşa cum este formulată întrebarea, sociabilitatea este variabila independentă(cauza).
Observaţie: În realitate, deoarece studiul nu este de tip experimental nu se poate infera
o relaţie cauzală între aceste două variabile, ci doar o relaţie de asociere.
d)Procedura statistică este de tip descriptiv sau inferenţial?
Inferenţial
10.Un psiholog raportează că persoanele din eşantionul cercetării au o vârstă medie de
24,5 ani. În acest caz:
a)are e natura statisticii, inferenţială sau descriptivă? Descriptivă
b)Variabila vârstă este discretă sau continuă? Continuă
11.Un psiholog compară nivelul atracţiei pentru risc fizic la un grup de alpinişti şi un
grup de şahişti, descoperind că primii au o predispoziţie mai mare pentru risc. În acest
caz:
a) Care este variabila dependentă? Atracţia pentru risc
b) Care este variabila independentă? Categoria de sportivi (care ia doua valori:
alpinişti, şahişti)
c)De ce natură este studiul, corelaţional sau experimental?
Corelaţional (preferinţa pentru risc este măsurată separat la cele doua grupuri)
d)De ce natură este procedura statistică pe care a utilizat-o, descriptivă sau
inferenţială?
Inferenţială (a fost efectuată o decizie care implică generalizarea concluziei de la nivelul
eşantionului şi nivelul populaţiilor de alpinişti si şahişti)
12.Menţionaţi cel putin trei indicatori (variabile observate) ale variabilei latente
sociabilitate.

371
1.Uşurinţa de a lega discuţii cu persoane necunoscute
2.Plăcerea de a fi între oameni
3.Număr mare de prieteni
Capitolul 3 Statistici descriptive
Exerciţiile 3.5.(Tabele de frecvenţe, reprezentări grafice)
1.Tabelul frecvenţelor simple
Scor Frecvenţa simplă Frecvenţa relativă Frecvenţa
procentuală cumulată
procentuală
(rang percentil)
30,00 1 3,3 3,3
33,00 1 3,3 6,7
39,00 1 3,3 10,0
42,00 1 3,3 13,3
44,00 1 3,3 16,7
45,00 1 3,3 20,0
46,00 2 6,7 26,7
47,00 1 3,3 30,0
48,00 2 6,7 36,7
49,00 2 6,7 43,3
50,00 3 10,0 53,3
51,00 2 6,7 60,0
52,00 2 6,7 66,7
53,00 2 6,7 73,3
54,00 2 6,7 80,0
55,00 1 3,3 83,3
56,00 1 3,3 86,7
57,00 1 3,3 90,0
59,00 1 3,3 93,3
62,00 1 3,3 96,7
68,00 1 3,3 100,0
Total =N 30 100,0

2. Scorul cel mai frecvent este 50 cu frecvenţa simplă 3 şi frecvenţa procentuală 10,
sub care se află 53,3% valori;
3. Sub scorul 33 este scorul 30 care apare o singură dată, adică în 3,3% din valori;
4. Valoarea (scorul) care reprezintă percentila 20 este 45;

5.Tabelul frecvenţelor grupate se realizează astfel: 1.-se stabileşte diferenţa dintre


valoarea cea mai mare (68) si cea mai mica (30), adică 68-30 = 38; 2.-alegem
intervalul de clasă prin încercari:38:3=12 (zecimalele nu sunt relevante, deoarece căutăm
un număr de clase);38:4=9; 38:5=7; 38:6=6
372
Observăm ca un interval de 6 unităţi produce 6 clase, în timp ce un interval de 3 unităţi
produce 12 clase.
Recomandarea este ca numărul claselor sa fie între 5 si 15. Deoarece numărul valorilor
din distribuţie este mic (30) este de preferat să alegem o grupare într-un număr mai mic
de clase, să zicem în şase clase. Alegerea este la latitudinea analistului. Dacă gruparea
nu ne satisface, ea poate fi ulterior refăcută cu un alt număr de clase.
- Alegem limita inferioară a primului interval (trebuie sa fie multiplu de 6).
Întâmplător, 30 este un multiplu de şase. Ca urmare, primul interval începe chiar cu
valoarea 30, la care adăugăm şase unităţi. Mai departe procedăm la fel pentru
următoarele intervale, până acoperim toate valorile distribuţiei:

30-35

36- 41

42-47

48-53

54-59

60-65
66-71 (limita superioară a ultimului interval poate fi mai mare decât cea mai mare
valoare a distribuţiei)
Tabelul frecvenţelor grupate obţinut se prezintă astfel:
Interval Frecvenţa Frecvenţa relativă Frecvenţa cumulată procentuală
simplă procentuală % %
30-35 2 6,7 6,7
36-41 1 3,3 10,0
42-47 6 20,0 30,0
48-53 13 43,3 73,3
54-59 6 20,0 93,3
60-65 1 3,3 96,7
66-71 1 3,3 100,0
Total=N 30 100,0

Observaţie: În practică rareori se utilizează frecvenţele raportate la unitate, de aceea am


inclus aici doar frecvenţele simple şi pe cele procentuale.
6. Reprezentarea grafică de tip stem and leaf pentru valorile
individividuale se face astfel:
373
Alegem stem = 10 şi leaf =1

3 039
4 2456678899
5 000112233445679
6 28

Observaţie: Dacă înmulţim valoarea stem cu 10 şi adăugăm câte o cifră de pe linia leaf,
obţinem valorile distribuţiei originale: 30, 33, 39, 42, 44... ş.a.m.d.

Exerciţiile 3.5.( indicatori statistici, grafice box plot)

1.Tabelul pentru calcularea indicatorilor statistici la grupul de pacienţi fobici trataţi prin
cele doua metode psihoterapeutice: metoda ”clasică” şi metoda nouă
Grupul A Grupul B
79 73
75 84
98 76
81 70
82 69
70 76
60 46
82 81
77 92
81 66
81 87
87 81
88 78
94 45
79 67
92 73
77 88
70 79
74 95
71 86
Media 79,90 75,60
Abaterea standard 9,03 13,08
Coeficientul de variaţie 0.11 0.18

Observaţie: Rezultatele afişate aici pot fi uşor diferite de cele care sunt obţinute pe alte
căi, din cauza rotunjirilor.

374
Discuţii:
-Grupul tratat cu metoda ”clasică” are un nivel mediu mai ridicat al tendinţelor fobice
(79,9) decât grupul tratat cu metoda nouă (75,6).
-În acelaşi timp, grupul tratat cu metoda nouă este mai neomogen, prezintă o
variabilitate mai mare a scorurilor (13.08 faţă de 9.03), ceea ce sugerează că noua
terapie are un efect variabil de la individ la individ, mai mare decat terapia veche.
Graficul box-plot pentru cele doua distributii

-Coeficientul de variabilitate este în ambele cazuri apropiat de 15%, ceea ce indică o


bună omogenitate a celor două distribuţii şi, implicit, o reprezentativitate bună a mediilor
lor. Totuşi, variabilitatea grupului B este mai mare decât a grupului A.
Graficul a fost realizat automat, cu programul SPSS, dar este similar cu cel care ar rezulta
prin metoda manuals, descrisă în volum. Eventuale mici diferenţe nu sunt relevante.
Discutii:
-Grupul A are o tendinţă centrală mai ridicata decât grupul B
-În acelaşi timp, grupul B se plasează între o limită superioară mai mică şi o limită
superioară mai mare decât grupul A. Şi totuşi, aşa cum n-au arătat indicatorii variabilităţii
375
calculaţi anterior, grupul B are o împrăştiere mai mare, deoarece aici găsim doua valori
extreme (marcate pe grafic), neobişnuit de mici faţă de celelalte valori ale acestui grup.
În cazul lor, terapia a avut un efect mult mai mare decât media, ceea ar impune o analiză
clinică a celor doi subiecţi, pentru a se găsi explicaţii (fie aceştia au fost incluşi greşit în
cercetare, neavând tendinţe fobice, fie în cazul lor terapia a fost influenţată de o variabilă
întâmplătoare care i-a potenţat efectul).
2. În urma aplicării a două chestionare de personalitate la un eşantion de 14 studenţi au
fost obţinute următoarele două serii de rezultate(distribuţii de scoruri):
-(1).La scala de timiditate:29,28,36,41,25,15,33,40,33,20,35,26,32,23
-(2).La scala privind sentimentul de
singurătate:27,35,30,51,30,2047,42,4033,28,40,25,15
2.1.Indicatori ai tendinţei centrale:
Variabila (1) Timiditatea:Modul(Mo)=33; mediană(Me)=0.5;media(m)=29.7
Variabila (2) Sentimentul de singurătate: Modul(Mo)=30; Mediana(Me)=31.5;
Media(m)=32.8
Precizări:
Variabila (2) este multimodală, 30 este modulul cel mai mic.
2.2. Indicatori ai împrăştierii:
Variabila(1) Timiditatea: Amplitudinea(R)=26; abaterea quartilă(R Q)=10.7;abaterea
semiinterquartilă(RsQ)=5.35; abaterea medie pătratică(s2)=55.6; abaterea
standard(s)=7.4; coeficientul de variaţie(cv)=24.9%;
Variabila (2) Sentimentul de singurătate: Amplitudinea(R)=36; abaterea
quartilă(RQ)=14.7; abaterea semiinterquartilă(RsQ)=7.35; abaterea medie
pătratică(s2)=107,33; abaterea standard(s)=10.36; coeficientul de variaţie(cv)=31.5%;

3. Se utilizează următorii indicatori:


a)abaterea interquartilă sau semiinterquartilă
b) abaterea standard
c) amplitudine
d) abaterea standard
e) abaterea interquartilă sau semiinterquartilă
376
Capitolul 6 Statistica inferenţială, noţiuni de bază

Exerciţiile 6.2.6. (scoruri standard z, probabilităţi sub curba normală z)


La evaluarea psihologică în scop de selecţie a candidaţilor la facultatea de medicină
militară s-a aplicat şi testul de inteligenţă generală neverbală Domino 48(D48). Unul
dintre candidaţi a obţinut scorul 43 la acest test. Presupunând că inteligenţa generală
neverbală a populaţiei de candidaţi la facultatea de medicină militară ar avea o distribuţie
normală, cu media 34 şi abaterea standard de 4,6, calculaţi răspunsul la următoarele
întrebări:

1.Care este scorul z corespunzător scorului obţinut de studentul respectiv?


z=(43-34)/4,6=+1,95
2.Care este procentajul valorilor posibile între valoarea 43 şi medie?
-Utilizăm tabelul distribuţiei z (vezi imaginea de mai jos)
-Scorul z pentru valoarea 43, calculat mai sus, este 1,95.
-Tabelul z ne dă proporţia valorilor între medie (z=0) şi o anumită valoare. În cazul
nostru, citim pe linia 1.9 si coloana 0.05 (care insumate dau 1,95) si găsim 0.47441.
Transformată în procente, această valoare ne spune că între scorul 43 şi medie, pe
distribuţia normală, se află 47,44% dintre valori.
Tabelul distribuţiei valorilor sub curba normală z (valorile din tabel indică valorile dintre 0 şi z)
Z 0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0 0.00000 0.00399 0.00798 0.01197 0.01595 0.01994 0.02392 0.02790 0.03188 0.03586
0.1 0.03983 0.04380 0.04776 0.05172 0.05567 0.05962 0.06356 0.06749 0.07142 0.07535
0.2 0.07926 0.08317 0.08706 0.09095 0.09483 0.09871 0.10257 0.10642 0.11026 0.11409
0.3 0.11791 0.12172 0.12552 0.12930 0.13307 0.13683 0.14058 0.14431 0.14803 0.15173
0.4 0.15542 0.15910 0.16276 0.16640 0.17003 0.17364 0.17724 0.18082 0.18439 0.18793
0.5 0.19146 0.19497 0.19847 0.20194 0.20540 0.20884 0.21226 0.21566 0.21904 0.22240
0.6 0.22575 0.22907 0.23237 0.23565 0.23891 0.24215 0.24537 0.24857 0.25175 0.25490
0.7 0.25804 0.26115 0.26424 0.26730 0.27035 0.27337 0.27637 0.27935 0.28230 0.28524
0.8 0.28814 0.29103 0.29389 0.29673 0.29955 0.30234 0.30511 0.30785 0.31057 0.31327
0.9 0.31594 0.31859 0.32121 0.32381 0.32639 0.32894 0.33147 0.33398 0.33646 0.33891
1 0.34134 0.34375 0.34614 0.34849 0.35083 0.35314 0.35543 0.35769 0.35993 0.36214
1.1 0.36433 0.36650 0.36864 0.37076 0.37286 0.37493 0.37698 0.37900 0.38100 0.38298
1.2 0.38493 0.38686 0.38877 0.39065 0.39251 0.39435 0.39617 0.39796 0.39973 0.40147
1.3 0.40320 0.40490 0.40658 0.40824 0.40988 0.41149 0.41309 0.41466 0.41621 0.41774
1.4 0.41924 0.42073 0.42220 0.42364 0.42507 0.42647 0.42785 0.42922 0.43056 0.43189
1.5 0.43319 0.43448 0.43574 0.43699 0.43822 0.43943 0.44062 0.44179 0.44295 0.44408
1.6 0.44520 0.44630 0.44738 0.44845 0.44950 0.45053 0.45154 0.45254 0.45352 0.45449
1.7 0.45543 0.45637 0.45728 0.45818 0.45907 0.45994 0.46080 0.46164 0.46246 0.46327
1.8 0.46407 0.46485 0.46562 0.46638 0.46712 0.46784 0.46856 0.46926 0.46995 0.47062
1.9 0.47128 0.47193 0.47257 0.47320 0.47381 0.47441 0.47500 0.47558 0.47615 0.47670
377
3.Care este procentajul valorilor mai mari decât 43?
În conformitate cu proprietăţile curbei normale, peste medie se afla exact 50% dintre
valori. Ca urmare, dacă ştim că între medie si +1,95 (z corespunzător valorii 43) se află
47,44%, înseamnă că procentul valorilor mai mari de 1,95 este 50-47,44=2,56%
4.Care este procentajul scorurilor mai mici de 43?
Ştiind că procentul valorilor mai mici decât media este 50%, iar între medie si +1,95 (z
corespunzător valorii 43 sunt 47,44%, rezultă că procentul valorilor mai mici decât 43
este: 50+47.44 =97,44%
5.Care este probabilitatea de avea un scor mai mare de 40?
Calculăm valoarea z corespunzătoare scorului 40: z40=(40-34)/4,6=+1.30
Citim probabilitatea corespunzătoare distanţei dintre medie si 1.30 din tabelul curbei
normale (vezi tabelul de mai sus) si găsim 0,4114.
Probabilitatea unui scor mai mare decât 40 se află astfel: 0,50-0,4114=0,0886
Acum înmulţim cu 100 şi aflăm că această probabilitate este de 8,86%.
6. Care este probabilitatea de a avea un scor mai mic de 29?
Calculăm scorul z corespunzător valorii 29: z29=(29-34)/4,6= -1,08
Citim în tabelul curbei normale probabilitatea asociată valorii 0,08 pe linia 1,0 şi coloana
0,8 unde găsim valoarea 0,35993. Această probabilitate corespunde distanţei dintre
medie şi scorul 29. Pentru a afla probabilitatea valorilor mai mici de 29 (z= -1,08)
scădem din probabilitatea totala a valorilor de sub medie, probabilitatea celor dintre
medie si z=1,08, adică: 0,50- 0,35993=0,14007. Înmulţim cu 100 şi aflăm că aproximativ
14% din rezultatele la testul de inteligenţă neverbală D48 se situează sub scorul de 29
puncte în lotul de candidaţii la facultatea de medicină militară.
Observaţie: Tabelul z prezintă valori fără semn, deoarece distribuţia normală este perfect
simetrică.
Tabelul distribuţiei valorilor sub curba normală z (valorile din tabel indică valorile dintre 0 şi z)
Z 0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0 0.00000 0.00399 0.00798 0.01197 0.01595 0.01994 0.02392 0.02790 0.03188 0.03586
0.1 0.03983 0.04380 0.04776 0.05172 0.05567 0.05962 0.06356 0.06749 0.07142 0.07535
0.2 0.07926 0.08317 0.08706 0.09095 0.09483 0.09871 0.10257 0.10642 0.11026 0.11409
0.3 0.11791 0.12172 0.12552 0.12930 0.13307 0.13683 0.14058 0.14431 0.14803 0.15173
0.4 0.15542 0.15910 0.16276 0.16640 0.17003 0.17364 0.17724 0.18082 0.18439 0.18793
0.5 0.19146 0.19497 0.19847 0.20194 0.20540 0.20884 0.21226 0.21566 0.21904 0.22240

378
0.6 0.22575 0.22907 0.23237 0.23565 0.23891 0.24215 0.24537 0.24857 0.25175 0.25490
0.7 0.25804 0.26115 0.26424 0.26730 0.27035 0.27337 0.27637 0.27935 0.28230 0.28524
0.8 0.28814 0.29103 0.29389 0.29673 0.29955 0.30234 0.30511 0.30785 0.31057 0.31327
0.9 0.31594 0.31859 0.32121 0.32381 0.32639 0.32894 0.33147 0.33398 0.33646 0.33891
1 0.34134 0.34375 0.34614 0.34849 0.35083 0.35314 0.35543 0.35769 0.35993 0.36214
1.1 0.36433 0.36650 0.36864 0.37076 0.37286 0.37493 0.37698 0.37900 0.38100 0.38298
1.2 0.38493 0.38686 0.38877 0.39065 0.39251 0.39435 0.39617 0.39796 0.39973 0.40147
1.3 0.40320 0.40490 0.40658 0.40824 0.40988 0.41149 0.41309 0.41466 0.41621 0.41774
1.4 0.41924 0.42073 0.42220 0.42364 0.42507 0.42647 0.42785 0.42922 0.43056 0.43189
1.5 0.43319 0.43448 0.43574 0.43699 0.43822 0.43943 0.44062 0.44179 0.44295 0.44408
1.6 0.44520 0.44630 0.44738 0.44845 0.44950 0.45053 0.45154 0.45254 0.45352 0.45449
1.7 0.45543 0.45637 0.45728 0.45818 0.45907 0.45994 0.46080 0.46164 0.46246 0.46327
1.8 0.46407 0.46485 0.46562 0.46638 0.46712 0.46784 0.46856 0.46926 0.46995 0.47062
1.9 0.47128 0.47193 0.47257 0.47320 0.47381 0.47441 0.47500 0.47558 0.47615 0.47670

7.Care este probabilitatea de a avea un scor cuprins intre 31 şi 33 puncte?


-Calculăm scorurile z ale celor doua valori:
Z31=(31-34)/4,6= -0,652
z33=(33-34)/4,6 = -0,217
-Citim în tabelul distribuţiei z probabilitatea dintre 0 si -0,652 (0,24215) şi
probabilitatea dintre 0 şi -0,217 (0,38877).
-Diferenţa dintre ele ne dă probabilitatea dintre cele doua scoruri z: 0,38877-
0,24215=0,14662. Exprimat în procente acest rezultat ne spune că pe distribuţia
normală, exista 14,662% valori cuprinse între scorurile z 0,65 şi – z 0,217.
8.Care este scorul minim pe care îl poate avea o persoană pentru a intra în primii 10%
dintre subiecţi?
-Mai întâi aflăm din tabelul distribuţiei normale care este scorul z care delimitează cei
mai buni 10% din populaţie. Aceasta înseamnă că între această valoare şi medie
se află 50%-10%=40%
-Pentru aceasta căutăm în celulele tabelului până găsim o probabilitate cât mai
apropiată de 0.4 (care corespunde procentului de 40%). Aceasta este celula care conţine
0,39973 (vezi tabelul de mai jos):

Tabelul distribuţiei valorilor sub curba normală z (valorile din tabel indică valorile dintre 0 şi z)
Z 0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0 0.00000 0.00399 0.00798 0.01197 0.01595 0.01994 0.02392 0.02790 0.03188 0.03586
0.1 0.03983 0.04380 0.04776 0.05172 0.05567 0.05962 0.06356 0.06749 0.07142 0.07535
0.2 0.07926 0.08317 0.08706 0.09095 0.09483 0.09871 0.10257 0.10642 0.11026 0.11409
0.3 0.11791 0.12172 0.12552 0.12930 0.13307 0.13683 0.14058 0.14431 0.14803 0.15173
0.4 0.15542 0.15910 0.16276 0.16640 0.17003 0.17364 0.17724 0.18082 0.18439 0.18793
379
0.5 0.19146 0.19497 0.19847 0.20194 0.20540 0.20884 0.21226 0.21566 0.21904 0.22240
0.6 0.22575 0.22907 0.23237 0.23565 0.23891 0.24215 0.24537 0.24857 0.25175 0.25490
0.7 0.25804 0.26115 0.26424 0.26730 0.27035 0.27337 0.27637 0.27935 0.28230 0.28524
0.8 0.28814 0.29103 0.29389 0.29673 0.29955 0.30234 0.30511 0.30785 0.31057 0.31327
0.9 0.31594 0.31859 0.32121 0.32381 0.32639 0.32894 0.33147 0.33398 0.33646 0.33891
1 0.34134 0.34375 0.34614 0.34849 0.35083 0.35314 0.35543 0.35769 0.35993 0.36214
1.1 0.36433 0.36650 0.36864 0.37076 0.37286 0.37493 0.37698 0.37900 0.38100 0.38298
1.2 0.38493 0.38686 0.38877 0.39065 0.39251 0.39435 0.39617 0.39796 0.39973 0.40147
1.3 0.40320 0.40490 0.40658 0.40824 0.40988 0.41149 0.41309 0.41466 0.41621 0.41774
1.4 0.41924 0.42073 0.42220 0.42364 0.42507 0.42647 0.42785 0.42922 0.43056 0.43189
1.5 0.43319 0.43448 0.43574 0.43699 0.43822 0.43943 0.44062 0.44179 0.44295 0.44408
1.6 0.44520 0.44630 0.44738 0.44845 0.44950 0.45053 0.45154 0.45254 0.45352 0.45449
1.7 0.45543 0.45637 0.45728 0.45818 0.45907 0.45994 0.46080 0.46164 0.46246 0.46327
1.8 0.46407 0.46485 0.46562 0.46638 0.46712 0.46784 0.46856 0.46926 0.46995 0.47062
1.9 0.47128 0.47193 0.47257 0.47320 0.47381 0.47441 0.47500 0.47558 0.47615 0.47670
-Apoi, compunem scorul z corespunzător însumând valoarea de pe linie cu valoarea de pe
coloana pe care se află probabilitatea găsită: z=+1,28
-Mai departe trebuie să transformăm scorul z=1,28 în scor brut, pe baza formulei
X=m+z*s, unde ştim valorile m (34), z (1,28) si s (4,6). Efectuând calculele obţinem:
X=50+1,28*4,6=40
Altfel spus, pentru a fi între primii 10% pe distribuţia normală, cineva trebuie sa aibă un
scor minim de aproximativ 40 puncte(din 44 de puncte maximum posibil de obţinut la
acest test).
Observaţie: Nu trebuie să uităm că tabelul prezintă probabilităţile dintre medie şi o
anumită valoare z, aşa încât să facem calculele necesare, în funcţie de formularea
problemei.

9. Care este scorul maxim pe care trebuie să îl obţină cineva pentru a se afla printre
ultimii 15%?

De data aceasta ne raportăm la partea stangă a distribuţiei normale, dar procedam la fel
ca mai sus.
-Căutăm scorul z corespunzător probabilităţii 0,50-0,15=0,35. Celula cu valoarea cea mai
apropiată de 0.35 (0,44950) se află la intersecţia liniei 1,0 cu coloana 0.04, care
însumate dau scorul z=-1,04 (i-am pus semnul minus pentru că problema ne plasează în
stânga mediei de pe curba Gauss).
-Scorul brut aferent valorii z=-1,04 se calculează cu aceeaşi formulă X=m-z*s unde însă
scădem din medie z*s deoarece ne aflăm în partea stângă a distribuţiei normale.
-Efectuăm calculele şi obţinem:

380
X=34-1,64*4,6=29,216
-În concluzie, cei care au un scor brut mai mic sau egal cu 29 se afla printre ultimii 15%
de pe o distribuţie normală.

Exerciţiile 6.12.(Testul z sau t pentru un singur eşantion)


1.Să presupunem că media populaţiei pentru o scală de anxietate este u=40. Dupa un
cutremur puternic se obţin urmatoarele scoruri pe un eşantion de subiecţi care se
adresează unui cabinet de psihologie clinică: 62, 49, 44, 46, 48, 52, 57, 51, 44, 47.
1.1.-Testaţi ipoteza conform careia nivelul anxietăţii este influenţat de cutremur (a=0,05,
bilateral).
Media eşantionului = 50
tcritic pentru alfa 0.05, cu 9 grade de libertate df, bilateral=2,26 (se citeste în tabelul de
mai jos al lui t sau în Anexa 2, la intersecţia liniei 9 cu coloana 0,025)
df a = 6,10 a = 0,05 a = 0,025 a = 0,01 a = 0,005 a = 0,0005
1 3,078 6,314 12,706 31,821 63,657 636,620
2 1,886 2,920 4,303 6,965 9,925 31,598
3 1,638 2,353 3,182 4,541 5,841 12,924
4 1.&3 2,132 2,776 3,747 4,604 8,610
5 1,476 2,015 2.571 3,365 4,032 6^869
6 1,440 1,943 2,447 3,143 3,707 5,959
7 1,415 1,895 2,365 2,998 3,499 5,408
8 1,397 1,860 2,306 2,896 3,355 5,041
9 1.383 1,833 2,262 2,821 3,250 4,781
10 1,372 1,812 2,228 2,764 3,169 4,587
11 1,363 1,796 . 2,201 2.718 3,106 4,437
12 1,356 1,782 2,179 2,681 3,055 4,318
13 1,350 1,771 2,160 2,650 3,102 4,221
14 1,345 1,760 2,145 2,624 2,977 4,140
tcalculat = 5,47>2,26 tcritic
Decizia statistică: respingem ipoteza de nul
Decizia cercetarii: Datele eşantionului susţin ipoteza cercetării. Anxietatea după cutremur
este mai mare decât media anxietăţii(populaţiei generale).
1.2.Calculaţi intervalul de încredere pentru media populaţiei (95%).
• Limita inferioară 45,87 (pot exista mici diferenţe, care rezultă din rotunjiri)
• Limita superioară 54,13

381
2.Scorurile obţinute la o scală de satisfacţie profesională de către angajaţii unui
compartiment dintr-o companie privată sunt urmatoarele: 10, 12, 15, 11, 10, 22, 14, 19,
18, 17, 25, 9, 12, 16, 17.
Scala a fost aplicată intregului personal al companiei (µ=13 şi σ=4)
2.1.Este nivelul de satisfacţie al compartimentului respectiv semnificativ mai mic decât
satisfacţia la nivelul întregii companii? (pentru alfa=0.01)
Media eşantionului = 15,13
tcritic pentru alfa 0,01, cu 14 grade de libertate df, bilateral = 2,97 (se citeşte în tabelul de
mai sus în Anexa 2, la intersecţia liniei 14 cu coloana 0,005)
eroarea standard a mediei= 4/√ 15=1,03
tcalculat=(15,13-13)/1,03=2,06< 2,97 tcritic
Decizia statistică:2,06<2,97, se admite ipoteza de nul (t calculat este mai mic decit t critic )
Decizia cercetării: ipoteza cercetării nu este confirmată

2.2.Care sunt limitele de încredere pentru media eşantionului, la un nivel de încredere de


99%?
• Limita inferioară=15.13-2,97*1.03=12,07
• Limita superioară=15.13+2,97*1.03=18,18

Exerciţiile 6.18.( Testul z sau t pentru diferenţa dintre media unui eşantion şi media
populaţiei, indicele de mărime a efectului, puterea testului t, tipurile de erori statistice)
Mărimea efectului pentru exerciţiile 6.12.
1.1. Pentru primul test: în cazul testului z sau t pentru diferenţa dintre media unui
eşantion şi media populaţiei, indicele de mărime a efectului se calculează după formula lui
Cohen (1988):

(formula 6.7)

unde:

m=media eşantionului, μ=media populaţiei, σ=abaterea standard a populaţiei (atunci


când nu o cunoaştem, putem utiliza abaterea standard a eşantionului)

382
Ca urmare, mărimea efectului, pentru rezultatul cercetării cu privire la relaţia dintre un
cutremur produs recent şi nivelul anxietăţii unui eşantion de pacienţi care se adresează
unui cabinet individual de psihologie clinică, se calculează astfel:

50−40
d= 5,77 = 1,73

La numitor am utilizat abaterea standard a eşantionului, deoarece abaterea standard a


populaţiei nu ne este cunoscută.
Conform recomandărilor lui Cohen, valoarea obţinută indică o mărime a efectului
mare (altfel spus, diferenţa dintre nivelul anxietăţii dinainte si după cutremur este
mare). Amintim grila de interpretare a lui Cohen, este:

0.20 efect mic

0.50 efect mediu


d (Cohen)
0.80 efect mare

1.2. Pentru al doilea test:testul t privind diferenţa dintre media la o scală de satisfacţie
profesională a unui compartiment şi media la aceeaşi scală a personalului din întreaga
companie,
15,13−13
d= 4 = 0,53

Conform recomandărilor lui Cohen, valoarea obţinută indică o mărime a efectului medie.
Altfel spus, pare să fie o oarecare relaţie de influenţă dintre gradele de satisfacţie
înregistrate la nivelul angajaţilor întregii companii şi la nivelul angajaţilor
compartimentului studiat, deşii diferenţa între cele două medii s-a dovedit
nesemnificativă. Această neconcordanţă dintre testul t şi îndicatorul de mărime a
efectului se explică prin numărul mic al angajaţilor compartimentului studiat(n=15).

2. Care este eroarea de tip II (β) atunci când puterea testului este : 0,64;0,93?

383
1 - 0,64 = 0,36 (Când pragul alfa admis este cel mai mare posibil, adică, atunci
când α= 0,05, atunci puterea testului t este cea mai mare, şi atunci posibilitatea erorii
de tip II- (β) este cea mai mică)
1 - 0,93 = 0,07 Cu cât puterea testului t este mai mare, cu atât probabilitatea erorii de
tip II(β) este mai mică(eroarea de tip II se produce atunci când admitem greşit ipoteza
de nul şi respingem ipoteza cercetării care este de fapt adevărată).
3.Care este puterea testului dacă eroarea de tip II (β) este de. 0,15; 0,46?
1 – 0,15 = 0,85
1 – 0,46 = 0,54
Cu cât probabilitatea erorii de tip II(β), este mai mică cu atât puterea testului t este mai
mare.

Capitolul 7 Teste statistice parametrice pentru date cantitative

Exerciţiile 7.1.10(comparaţie între 2 eşantioane independente)


Într-un studiu asupra efectelor unui nou tratament al depresiei, datele pentru grupul
experimental obţinute printr-o scală de evaluare a tendinţelor stării depresive sunt:
m1=27.2, s1=4 şi N1=15
Datele pentru grupul de control sunt: m2=34.4, s2=14 şi N2=15
Formulaţi:
1.Problema (întrebarea) cercetării
Este eficient noul tratament antidepresiv?
2.Ipoteza cercetării (H1)
Nivelul stării depresive va fi mai scăzut după tratament
3.Ipoteza de nul (H0)
Nivelul depresivităţii nu va fi influenţat de tratament
4.Aflaţi t critic pentru α=0.05; bilateral(din tabelul cu valorile critice pentru distribuţia t
Student de mai jos sau din Anexa 2, la intersecţia liniei pentru 28 grade de libertate, Df
= N1 + N2 – 2, cu coloana 0,025) tcritic bilateral pt. α=0.05 = 2,048
Notă: Deşi datele din exemplu arată că m1 este mai mic decât m2, vom alege un test
bilateral pentru a nu uita că, în practică, criteriile deciziei statistice sunt fixate înaintea

384
măsurării experimentale, când, deci, nu aveam de unde şti care vor fi valorile pe care le
vom obţine.

Df(N-2) a = 6,10 a = 0,05 a = 0,025 a = 0,01 a = 0,005 a = 0,0005


1 3,078 6,314 12,706 31,821 63,657 636,620
2 1,886 2,920 4,303 6,965 9,925 31,598
3 1,638 2,353 3,182 4,541 5,841 12,924
4 1.&3 2,132 2,776 3,747 4,604 8,610
5 1,476 2,015 2.571 3,365 4,032 6^869
6 1,440 1,943 2,447 3,143 3,707 5,959
7 1,415 1,895 2,365 2,998 3,499 5,408
8 1,397 1,860 2,306 2,896 3,355 5,041
9 1.383 1,833 2,262 2,821 3,250 4,781
10 1,372 1,812 2,228 2,764 3,169 4,587
11 1,363 1,796 . 2,201 2.718 3,106 4,437
12 1,356 1,782 2,179 2,681 3,055 4,318
13 1,350 1,771 2,160 2,650 3,102 4,221
14 1,345 1,760 2,145 2,624 2,977 4,140
15 1,341 1,753 2,131 2,602 2,947 4,073
16 1,337 1,746 2,120 2,583 2,921 4.015
17 1,333 1,740 2,110 2,567 2,898 3,965
18 1,330 1,734 2,101 2,552 2,878 3.922
19 1,328 1,729 2,093 2,539 2,861 3,883
20 1,325 1,725 2,086 2,528 2,845 3,850
21 1,323 1,721 2,080 2,528 2,831 3.819
22 1,321 1.717 2,074 2,508 2,819 3,792
23 1,319 1,714 2,069 2,500 2.807 3,767
24 1,318 1,711 2.064 2,492 2.797 3,745
25 1,316 1,708 2,060 2,485 2.787 3,725
26 1,315 1,706 2,056 2,479 2.779 3,707
27 1,314 1,703 2,052 2.473 2,771 3.690
28 1,313 1,701 2.048 2.467 2,763 3,674

5.Calculaţi testul t pentru diferenţa dintre cele două eşantioane


Formula de calcul este: t = (m1 - m2 )/SDif
-Calculăm numărătorul care ne arătă diferenţa dintre cele două medii: m 1 – m2 = 27.2 -
34.4 = - 7,2
-Acum calculăm numitorul care este mai complicat:

( N 1−1 ) ( S 12 ) + ( N 2−1 ) ( S 22 ) 1 ( 15−1 )∗( 42 ) + ( 15−1 )∗( 14 2 ) 1 1



SDif=
N 1+ N 2−2 ( +)1
N1 N 2 √
=
15+15−2 ( +
15 15 )
=0 , 47

t1 =-7,2/0,47 = -15,3 > 2,04

385
Decizie statistică: se respinge ipoteza de nul = Nivelul depresivităţii este influenţat
de noul tratament psihoterapeutic antidepresiv, în sensul că diminuează simptomatologia
specifică acestei tulburări psihice.
6.Calculaţi intervalul de încredere (99%) pentru diferenţa dintre mediile populaţiilor.
Formula: µdif = mdif ± tcritic * sdif
Limita superioară = -7,2 + 2,04*0,47 = -7,2+0,95 =-6,24
Limita inferioară =-7,2 –2,04*0,47 = -8,16
7.Calculaţi mărimea efectului după formula:

Calculăm mai întâi numitorul, pentru că este mai complicat:


( 15−1 )∗42 + ( 15−1 )∗14 2 14∗16+14∗196 224+2744
√ (15−1 ) + ( 15−1 ) √ =
28
−7,2

=
28
=√ 106=10,29

Calculăm mărimea efectului d= = - 0,69


10,29
Conform grilei lui Cohen, mărimea efectului este ”medie spre mare”. Semnul lui d nu
are nici o relevanţă.
8.Formulaţi şi motivaţi decizia statistică:
Atât testul de semnificaţie t al diferenţei dintre cele două medii referitoare la intensitatea
pe scala depresivităţii la cele două eşantioane de pacienţi, eşantionul experimental şi
eşantionul de control, cît şi testul de mărime a efectului al lui Cohen, resping ipoteza de
nul şi susţin ipoteza cercetării care afirmă eficienţa noii metode psihoterapeutice
antidepresive.
9.Formulaţi concluzia cercetării, cu respectarea recomandărilor de raportare pentru acest
test.
Într-un studiu experimental efectuat cu ajutorul unei scale de depresie asupra efectelor
unui nou tratament al acestei tulburări, s-au înregistrat următoarele date:
-pentru grupul experimental: m1=27.2, s1=4 şi N1=15
-pentru grupul de control: m2=34.4, s2=14 şi N2=15

386
Procedura statistică utilizată a constat în aplicarea testului t Student al diferenţei dintre
mediile pe scala depresivităţii ale celor două eşantioane independente, experimental şi de
control, mărimea testului t calculat fiind egală cu -15,3 > 2,04
cât reprezintă valoarea critică al lui t, la un grad de libertate de 28, analizat la un prag
alfa de 0,05 bilateral. Indicele de mărime a efectului, a fost de -0,69, denotănd, în
conformitate cu grila de interpretare al lui Cohen o mărime a efectului ”medie spre
mare”.
Concluzia cercetării: nouă metodă de tratare a stărilor depresive este mai eficientă decât
metodele clasice utilizate până în prezent.
Sunt necesare şi alte cercetări pe eşantioane mai mari de pacienţi cu noua metodă de
tratament a stărilor depresive, pentru contravalidarea concluziilor acestui studiu.

Exerciţiile 7.2.11.(comparaţia dintre mai mult de 2 eşantioane independente,


analiza de varianţă unifactorială ANOVA)
Un cercetător efectuează următorul experiment cu privire la efectul Stroop:
Selectionează aleatoriu patru grupuri de subiecţi, fiecare grup fiind format din şase
subiecţi;subiecţilor din primul grup li se prezintă pătrate colorate şi li se cere să identifice
culoarea;celor din grupul 2 li se prezintă adjective scrise cu culori corespunzătoare
(„roşu” este scris cu roşu);grupurilor 3 şi 4 li se prezintă combinaţii conflictuale între
cuvinte şi culori, dar subiecţii din grupul 3 trebuie să identifice cuvântul, în timp ce
subiecţii din grupul patru trebuie să identifice culoarea.
Variabila dependentă este timpul pentru răspuns corect, măsurat în zecimi de
secundă.Toţi subiecţii primesc 10 stimuli de acelaşi fel, fiind consemnat timpul mediu de
răspuns.Rezultatele sunt centralizate în tabelul următor:
Grup 1 Grup 2 Grup 3 Grup 4
0.3 0.5 1.1 1.3
0.5 0.5 0.9 1.2
0.3 0.3 0.9 1.4
0.2 0.2 1.2 0.9
0.4 0.4 1.0 1.5
0.2 0.3 1.2 1.1

387
M=0,74
m1=0,32 m2=0,37 m3=1,05 m4=1,23
m1-M=-0,42 m2-M=-0,37 m3-M=0,31 m4-M=0,49
S1=0,11 S2=0,11 S3=0,13 S4=0,20
S12=0,0121 S22=0,0121 S32=0,0169 S42=0,04
Raportul F=s2intergrup/s2intragrup unde:

( m1−M )2 + ( m 2−M )2+ ( m3−M )2 + ( m 4−M )2


2
s intergrup=n dfintergrup
( 0,32−0,74 ) + ( 0,37−0,74 )2 + ( 1,05−0,74 )2 + ( 1,23−0,74 )2
2
2
s intergrup=4 4−1
=¿

(−0,42 )2 + (−0,37 )2+ ( 0,31 )2+ ( 0,49 )2 0,1764+0,1369+ 0,0961+ 0,2401


4 =4 =4*0,433=1,732
3 3

s2intragrup=(s12+s22+s32+s42)/ngrupuri
0,0121+ 0,0121+ 0,0169+0,04 0,38
s2intragrup= 4 = 4 =0,095

3) F=1,732/0,095=18,23

Anexa 3. Tabelul parţial al distribuţiei F pentru ά=0.051


df df intergrup (between)
intragrup 1 2 3 4 5
(within)
1 161.4476 199.5000 215.7073 224.5832 230.1619
2 18.5128 19.0000 19.1643 19.2468 19.2964
3 10.1280 9.5521 9.2766 9.1172 9.0135
4 7.7086 6.9443 6.5914 6.3882 6.2561
5 6.6079 5.7861 5.4095 5.1922 5.0503
6 5.9874 5.1433 4.7571 4.5337 4.3874
7 5.5914 4.7374 4.3468 4.1203 3.9715
8 5.3177 4.4590 4.0662 3.8379 3.6875
9 5.1174 4.2565 3.8625 3.6331 3.4817
10 4.9646 4.1028 3.7083 3.4780 3.3258
11 4.8443 3.9823 3.5874 3.3567 3.2039
12 4.7472 3.8853 3.4903 3.2592 3.1059
13 4.6672 3.8056 3.4105 3.1791 3.0254
14 4.6001 3.7389 3.3439 3.1122 2.9582
15 4.5431 3.6823 3.2874 3.0556 2.9013
16 4.4940 3.6337 3.2389 3.0069 2.8524

388
17 4.4513 3.5915 3.1968 2.9647 2.8100
18 4.4139 3.5546 3.1599 2.9277 2.7729
19 4.3807 3.5219 3.1274 2.8951 2.7401
20 4.3512 3.4928 3.0984 2.8661 2.7109

În raport cu datele experimentului de mai sus:


1.Enunţaţi ipoteza cercetării:
Timpul de răspuns variază în funcţie de condiţiile stimulării
2. Enunţaţi ipoteza de nul:
Timpul de răspuns nu variază în funcţie de condiţiile stimulării
2.1.Fixăm criteriile deciziei statistice: Nivelul α=0.05
Stabilim F critic:
dfintergrup=4-1=3
dfintragrup=24-4=20
Citim Fcritic din tabelul F pentru α=0.05:
(F 0.05, 3, 20)) Fcritic=3.0984 (vezi tabelul de mai sus sau Anexa 3)

3. Calculaţi testul F pentru alfa=0.05 Fcalculat=18,23 > Fcritic 3,9984


4. Enunţaţi decizia statistică
Se respinge ipoteza de nul
5. Enunţaţi decizia cercetării
Timpul de răspuns variază în funcţie de condiţiile stimulării
6. Calculaţi indicii de mărime a efectului eta-pătrat(η2) şi f
η2 =(dfintergrup*F)/(dfintergrup*F+dfintragrup)=
(3*18,23)/(3*18,23+20)=54,69/64,69 = 0,84
0,84=mărime a efectului foarte mare, asociere foarte puternică(după grilele Hopkins şi
Davis)
η2 0 , 84 0 , 84
f=
√ =

1−η 2 1−0 , 84
=
0 ,14 √
=√ 6 =2,44 2,44=efect foarte mare după

grila de interpretare a valorilor lui f a lui Cohen


-efect mic = 0,10
-efect mediu = 0,25
-efect mare ≥ 0,40
389
7. Prezentaţi rezultatul cercetării în conformitatea cu recomandările de publicare
A fost analizată performanţa la 4 condiţii diferite de stimulare cu câte 10 stimuli specifici
testului Stroop, a 4 grupuri de subiecţi formate din cîte 6 subiecţi fiecare. Mediile
performanţei pentru cele 4 grupuri, în sutimi de secundă au fost:

m1=0,32 m2=0,37 m3=1,05 m4=1,23


Analiza de varianţă unifactorială a relevat o diferenţă semnificativă între aceste medii, F (3,
20)= 18,23; p≤0.05. Mărimea efectului apreciată atât cu indicele eta-pătrat
(η2=0,84),cât şi cu indicele f al lui Cohen indică un efect foarte mare (f=2,44)”.

Exerciţiile 7.3.7.(Testul t pentru 2 eşantioane dependente)


1.Ipoteza cercetării (unilaterală): Performanţa de operare numerică scade în condiţii de
criză de timp; Ipoteza de nul (bilaterală): Performanţa de operare numerică nu este
diferită în condiţii de criză de timp si fără criză de timp.
Observaţii:În practica cercetării, se recomandă enunţarea unilaterală a ipotezei cercetării
şi testarea statistică bilaterală. Atunci când nu avem o bază teoretică abordarea
unilaterală nu este acceptabilă decât în situaţii cu totul excepţionale, care trebuie
justificate.
2. tcritic=2,36(se citeşte la intersecţia liniei N-1grade de libertate Df şi coloana pentru
alfa 0.05 bilateral, adică coloana 0,025)

Tabelul t pentru probalitatile din dreapta curbei

Df/N 0.40 0.25 0.10 0.05 0.025 0.01 0.005 0.0005


1 0.324920 1.000000 3.077684 6.313752 12.70620 31.82052 63.65674 636.6192
2 0.288675 0.816497 1.885618 2.919986 4.30265 6.96456 9.92484 31.5991
3 0.276671 0.764892 1.637744 2.353363 3.18245 4.54070 5.84091 12.9240
4 0.270722 0.740697 1.533206 2.131847 2.77645 3.74695 4.60409 8.6103
5 0.267181 0.726687 1.475884 2.015084 2.57058 3.36493 4.03214 6.8688
6 0.264835 0.717558 1.439756 1.943180 2.44691 3.14267 3.70743 5.9588
7 0.263167 0.711142 1.414924 1.894579 2.36462 2.99795 3.49948 5.4079
8 0.261921 0.706387 1.396815 1.859548 2.30600 2.89646 3.35539 5.0413
9 0.260955 0.702722 1.383029 1.833113 2.26216 2.82144 3.24984 4.7809
10 0.260185 0.699182 1.372184 1.812461 2.22814 2.76377 3.16927 4.5869

390
3. tcalculat=2,29
4. se admite ipoteza de nul (tcalculat<tcritic)
5. rezultatele nu susţin ipoteza cercetării
6. d=(85,38-76,88)/1o,46=0,81
Observaţie: Indicele de mărime a efectului este mare, conform grilei lui Cohen.
Cu toate acestea, ipoteza cercetării nu a putut fi confirmată. Această situţie se
explică prin volumul extrem de mic al grupurilor comparate, fapt care
generează o eroare standard mare şi implicit, reduce valoarea testului.
7. Limita inferioară=-0,24; limita superioară=17,24
Observaţie: Se observă că limita inferioară se plasează cu foarte puţin sub
media de nul (0), în timp ce limita superioară este mult peste media de nul.
Această situaţie, împreună cu valoarea mare a indicelui de mărime a efectului,
ne îndreptăţeşte să apreciem că, de fapt, capacitatea de operare numerică este
afectată de stresul temporal, dar cercetarea noastră nu a avut suficientă putere
pentru a o pune în evidenţă (aşa cum am precizat mai sus, cauza o constituie
volumul foarte mic al eşantionului).
8. Au fost comparate rezultatele la un test de operare numerică al unui eşantion de
subiecţi (N=8) care a lucrat fară criză de timp (m1=85,38; s2=11,55) şi apoi în
criză de timp (m2=75,88, s2=10,27). Diferenţa a fost testată cu testul t pentru
eşantioane dependente (t=2,29) pentru alfa=0,05, bilateral. Deşi rezultatul este
nesemnificativ statistic, indicele de mărime a efectului d=0,81 şi intervalul de
încredere (-0,24/17,24) sugerează existenţa unui efect important care nu a putut
fi pus în evidenţă din cauza volumului foarte mic al eşantionului.

Exerciţiile 7.4.16.(Testul de corelaţie liniară Pearson r )


1. r = -0,70(corelaţie liniară negativă)
2.rcritic=0,57 (df=10); rezultatul este semnificativ statistic
3.Persoanele care se comportă agresiv primesc mai puţine aprecieri din partea celor
din jur.
4.Mărimea efectului: r2 =0,49 (corelaţie moderată)
5.Limitele de încredere: rminim=-0,45; rmaxim=-0,85
Capitolul 8 Teste statistice parametrice cu SPSS
Exerciţiile 8.6.(Coeficientul de corelaţie linear Pearson r)
1.r = -0,70
2.rcritic=0,57 (df=10); rezultatul este semnificativ statistic
3.Persoanele care se comportă agresiv primesc mai puţine aprecieri din partea celor din
jur.
4. Graficul scatter - plot (obţinut cu program SPSS)

5.Mărimea efectului: r =0,49 (corelaţie moderată)


6.Limitele de încredere: rminim=-0,45; rmaxim=-0,85

Capitolul 9 Teste neparametrice pentru date nominale

Exerciţiile 9.1.5.(Testul z pentru proporţii binomiale)

1. Presupunând că 85% din populaţie este dreptace (Q) şi că 15% este stângace (P):
a) Dacă 27 din cei 120 de copii dintr-o şcoală de artă sunt stângaci, care este scorul z
pentru testarea ipotezei?
Proporţia stângacilor la nivelul populaţiei: este P=0,15
Proporţia stângacilor la nivelul eşantionului: p=27/120=0,22
0,22−0,15
0,07
z= 0,15∗0,85 = 0,03 =2,33

120

392
c) Pe baza scorului z de la punctul a, putem concluziona că frecvenţa stăngacilor
printre copiii cu aptitudini artistice este mai mare decât la nivelul populaţiei? (a = 0,05,
bilateral)
zcalculat (2,33)>zcritic (1,96)
Rezultatul susţine respingerea ipotezei de nul. Procentul stângacilor în
eşantionul cercetării este semnificativ diferit de procentul stângacilor la nivelul
populaţiei

2.Doua grupuri de subiecţi, fiecare compus din 30 de persoane (N), participă la un


experiment în care este studiat efectul stresului temporal asupra performanţei de
rezolvare de probleme. Primul grup are un termen-limită, iar celălalt nu.
Rezultatele cercetarii arată că 25% dintre subiecţii grupului care a lucrat în
criză de timp au rezolvat problema, în timp ce în grupul fără termen-limită,
procentul rezolvărilor corecte a fost de 60%. Se poate afirma că stresul
temporal reduce performanţa în rezolvarea de probleme? (a = 0,05, bilateral)
Utilizăm formula 9.6 pentru eşantioane mari:

0,25−0,60
−0,35
z= 0,25∗0,75 0,60∗0,40 = 0,11 =3,18
√ 30
+
30
zcalculat(3,18)>Zcritic (1,96)

Rezultatul susţine respingerea ipotezei de nul. Procentul celor care au


rezolvat problema în condiţii de stres temporal este semnificativ mai mic
decât procentul celor care au rezolvat-o în absenţa stresului temporal.

1. Ş
ase studenţi de la Facultatea de Arte Plastice au fost rugaţi sa picteze două tablouri, pe
o temă la alegere. Într-un caz au lucrat în condiţii de linişte, în cel de-al doilea caz au
avut un fond sonor de muzică clasică. Lucrările lor au fost evaluate de un profesor care
a apreciat că 5 dintre studenţi au dat dovadă de mai multă creativitate când au

393
ascultat muzică decât în condiţii de linişte. Se poate concluziona că muzica clasică
favorizează creativitatea artistică, pentru a = 0,05, bilateral?

Procentul studenţilor creativi la nivelul eşantionului: p=5/6=0,83.


Aplicăm formula 9.7 (deoarece eşantionul este foarte mic):
∣5−6∗0,83 ∣−0,5
Z= =-0,32
√ 6∗0,83∗0,17
Zcalculat(-0,32)<zcritic(1,96)

Rezultatul susţine acceptarea ipotezei de nul. Procentul studenţilor evaluaţi drept


"creativi" nu este semnificativ diferit, fapt care nu susţine ipoteza că muzica a stimulat
creativitatea (evident, în acest caz ne putem pune problema dacă nu cumva puterea
cercetării este extrem de mică, din cauza volumului redus al eşantionului). În ciuda
acestui rezultat, cercetătorul ar putea să se gândească la continuarea cercetării pe un
eşantion mai mare.

Exerciţiile 9.2.11.(Distribuţia multinomială, teste de contingenţă, Testul Chi


pătrat al asocierii datelor multinomiale)
1. Pentru a verifica ipoteza că există o legătură între numărul de internări psihiatrice şi
anotimp, au fost numărate internarile pentru fiecare anotimp, obţinându-se urmatoarele
valori: primavara = 30; vara = 40; toamna = 20; iarna = 10. Testaţi ipoteza că
internarile psihiatrice sunt inegal distribuite în funcţie de anotimp (pentru alfa=0,05).
Ipoteza cercetării:
Internarile psihiatrice variază în funcţie de anotimp.
Ipoteza de nul:
Internările în cele patru anotimpuri sunt egale.
Dacă internările psihiatrice ar fi echivalente în cele patru anotimpuri atunci ar trebui ca
cele 100 de internări (30+40+20+10) să se distribuie în mod egal în fiecare anotimp
(câte 25%).
Gradele de libertate:df=(4-1)*(2-1)
Chi pătrat critic=7,81
Tabelul de corespondenţă

394
Frecvenţe observate Frecvenţe aşteptate
Primăvara 30 25% din 100 = 25 (30-25)2/25=1
Vara 40 25% din 100 = 25 (40-25)2/25=9
Toamna 20 25% din 100 = 25 (20-25)2/25=1
Iarna 10 25% din 100 = 25 (10-25)2/25=9
Total 100 25% din 100 = 25 X2=20

X2calculat (20) >X2critic (7,81)


Rezultatele permit respingerea ipotezei de nul. Internările psihiatrice variază semnificativ
în funţie de anotimp.

Indicele phi Cramer de mărime a efectului:

20
Φc=
√ 100∗( 4−1 )
= 0,25

Conform grilei lui Cohen, avem o mărime medie a efectului.


2. Într-un serviciu de psihologie clinică rezultatele mai multor psihologi în terapia unor
pacienţi cu tulburari severe au fost evaluate astfel: ameliorare, fără modificări,
înrăutăţire.
Ipoteza cercetării: Rezultatele terapiei variază în funcţie de psihiatrul care o
practică.
Ipoteza de nul : Rezultatele terapiei nu variază în funcţie de psihiatrul care
o practică.
Grade de libertate: (5-1)*(3-1)=8
Chi pătrat critic pentru alfa 0,05=15,51

Am realizat tabelul de corespondenţă punând psihologii pe linii şi starea pe coloane,


pentru a se aranja mai bine în pagină.

Ameliorat Fără modificari Înrăutăţit


FO FA FO FA FO FA Frecvenţa
marginală
Psiholog A 15 (65*18,18)/100=11,81 5 (28*18,18)/100=5,09 0 (17*18,18)/100=3,08 20(18,18)
Psiholog B 11 (65*27,27)/100=17,25 13 (28*27,27)/100=7,63 6 (17*27,27)/100=4,63 30(27,27)
Psiholog C 16 (65*18,18)/100=11,81 0 (28*18,18)/100=5,09 4 (17*18,18)/100=3,08 20(18,18)
Psiholog D 13 (65*18,18)/100=11,81 4 (28*18,18)/100=5,09 3 (17*18,18)/100=3,08 20(18,18)
Psiholog E 10 (65*18,18)/100=11,81 6 (28*18,18)/100=5,09 4 (17*18,18)/100=3,08 20(18,18)

395
65 28 17 110
Frecvenţa
marginală

În tabelul de mai sus avem frecvenţele observate (coloanele FO) şi frecvenţele aşteptate
(coloanele FA). Aplicăm formula 9.9. Pentru fiecare pereche de celule FO şi FA facem
diferenţa, o ridicăm la pătrat ţi o împarţim la FA. Apoi însumăm rezultatele pentru toate
celulele. Rezultatul este valoarea lui X2 (13,53) Decizia statistică:
Chi patrat calculat (13,53) < Chi patrat critic (15,51)
Rezultatele cercetării impun admiterea ipotezei de nul şi neconfirmarea ipotezei că cei cinci
psihiatri au o eficienţă profesională diferită unul de altul.

Calculăm indicele phi Cramer pentru mărimea efectului:


Valoarea mărimii efectului este de nivel mediu.

13 , 53
Φc=
√ 110∗( 3−1 )
=0 , 24

Valoarea mărimii efectului este de nivel mediu.

Capitolul 11(Teste statistice pentru date ordinale)

Exerciţiu 11.2.(Testul Mann- Whitney U pentru 2 eşantioane independente)

Un cercetător doreşte să verifice dacă băieţii crescuţi de către mame singure manifestă un
nivel mai ridicat al trăsăturii „feminitate” decât băieţii crescuţi în familii bi-parentale.
Primul grup (A) cuprinde 10 subiecţi, al doilea, (B) este format din 8 subiecţi.

Evaluarea „feminităţii” s-a făcut pe baza unui chestionar specializat, cotat cu un scor
numeric. Numărul subiecţilor nu permite aplicarea unui test t pentru eşantioane
independente, motiv pentru care se decide utilizarea testului Mann-Whitney (U).

Datele cercetării:

(valorile exprimă scorul la trăsătura „feminitate”)

Provenienţa A(monoparental) şi B(biparental) Scor „feminitate”


A 14
A 12
A 15
A 9
A 10
A 13
A 15
A 11

396
A 14
A 12
B 10
B 7
B 12
B 8
B 6
B 4
B 3
B 5
Care este valoarea testului Mann-Whitney (U)? Care este decizia statistică şi ce concluzie
trage cercetătorul?

1.Se calculează cale două valori U, corespunzătoare grupurilor A(băieţi crescuţi de


mame) şi B(băieţi crescuţi în familii biparentale), conform formulelor 11.1, respectiv
11.2, astfel:

(formula 11.1)

(formula 11.2)

Unde nA şi nB reprezintă volumul celor două grupuri independente care compun


eşantionul şi ΣRA şi ΣRB reprezintă suma rangurilor pentru fiecare din cele două grupuri.

2. Stabilim rangul subiecţilor din grupurile A şi B, folosind unul din cele două procedee
prezentate la tema 11.1. din volum.

Provenienţa A(monoparental) şi B(biparental) Scor „feminitate” Rang secvenţial


B 3 1
B 4 2
B 5 3
B 6 4
B 7 5
B 8 6
A 9 7
B 10 8
A 10 8
A 11 9

397
B 12 10
A 12 10
A 12 10
A 13 11
A 14 12
A 14 12
A 15 13
A 15 13
3.Se calculează suma rangurilor celor două grupuri independente A 1 şi B2.

Provenienţa A(monoparental) şi B(biparental) Scor „feminitate” Rang secvenţial


A 9 7
A 10 8
A 11 9
A 12 10
A 12 10
A 13 11
A 14 12
A 14 12
A 15 13
A 15 13
NA1= 10 ∑RA1=105

B 3 1
B 4 2
B 5 3
B 6 4
B 7 5
B 8 6
B 10 8
B 12 10
NB2 =8 ∑RB2=39

2. Se calculează testul U pentru cele două grupuri după formulele 11.1 şi 11.2.

+ 10∗( 10+1 )
UA1=10*8 −105=¿80+55-105=135-105=30
2

+ 8∗ ( 8+1 )
UB2=10*8 −39=80+ 36−39=116−39=77
2

UA1=30 UA1(30)> U0.05;10;8(17)

398
6.Se raportează valoarea calculată a testului U de la grupul A1(30)la valoarea tabelară
critică a testului U(17) deoarece este mai mică decât valoarea calculată a testului U la
grupul B2.(invers decât la pragurile critice ale altor teste de semnificaţie cunoscute).
A se citi valoarea critică tabelară a testului U în extrasul de mai joss au în Anexa 7, la
intersecţia dintre numărul de subiecţilor din cele două grupuri comparate(n A şi nB).

nA/nB a 5 6 8 10
0,05 0 1 2 3
3
0,01 - - - 0
0,05 1 2 4 5
4
0,01 - 0 1 2
0,05 2 3 6 8
5
0,01 0 1 2 4
0,05 3 5 8 11
6
0,01 1 2 4 6
0,05 6 8 13 17
8
0,01 2 4 7 11
0,05 8 11 17 23
10
0,01 4 6 11 16
0,05 11 14 22 29
12
0,01 6 9 15 21
0,05 13 17 26 36
14
0,01 7 11 18 26
0,05 15 21 31 42
16
0,01 9 13 22 31
0,05 18 24 36 48
18
0,01 11 16 26 37

Decizie statistică: se acceptă ipoteza de nul şi se respinge ipoteza cercetării; valoarea U


calculată este mai mare decât valoarea critică tabelară(Ucalculat ≥Ucritic ).În cazul
tabelar

testului U(Mann-Whitney), pentru a putea respinge ipoteza de nul şi a confirma ipoteza


cercetării U calculat la unul din cele două grupuri trebuia să fie mai mic sau cel mult egal
cu valoarea tabelară critică, corespunzător volumului celor două grupuri independente
comparate.

Ca urmare, decizia(concluzia) cercetării este aceea că nivelul feminităţii nu este


diferit la băieţii crescuţi numai de mamă comparativ cu nivelul feminităţii
băieţilor crescuţi de ambii părinţi.

399
Exerciţiul 11.4.(Testul Kruskal-Wallis-H pentru mai mult de 2 eşantioane
independente)

1.Se porneşte de la formula testului H(K-W) şi de la cele 3 grupuri independente de


date(Tab.11.1), exprimând frecvenţa preferinţei de consum a 3 grupuri de câte 6
persoane, a prăjiturilor cu glazuri colorate diferit(verde, roşu,galben).

2.Se codifică cu cfrele 1, 2 şi 3 categoria de preferinţe exprimate pentru prăjiturile


glazurate în cele 3 culori şi se aplică o procedură globală de rangare a frecvenţei
preferinţei exprimate prin consumul prăjiturilor glazurate în cele 3 culori, de către cele 3
grupuri de subiecţi, a căte 6 persoane fiecare.

Tabelul11.1
Verde Roşu Galben
3 3 2
7 4 0
1 5 4
0 6 6
9 4 4
2 6 1

(formula 11.4)

Tabelul 11.2
Verde=1, Roşu=2, Galben=3
Grup, Preferinţe Rang
culoare culoare secvenţial
1 0 1
3 0 1
1 1 2
3 1 2
1 2 3
3 2 3
1 3 4
2 3 4

400
2 4 5
2 4 5
3 4 5
3 4 5
2 5 6
2 6 7
2 6 7
3 6 7
1 7 8
1 9 9
3. Se face suma valorii rangurilor fiecărei culori de glazură a prăjiturilor
consumate de către cele 3 grupuri a căte 6 subiecţi fiecare, indicatori care vor fi
introduşi în formula testului H, aşa cum putem observa în continuare.
Tabelul 11.3
Verde=1, Roşu=2, Galben=3
Grup, Preferinţe Rang
culoare culoare secvenţial
1 0 1
1 1 2
1 2 3
1 3 4
1 7 8
1 9 9
n1=6 ∑R1=27
2 3 4
2 4 5
2 4 5
2 5 6
2 6 7
2 6 7
n2=6 ∑R2=34
3 0 1
3 1 2
3 2 3
3 4 5
3 4 5
3 6 7

401
n3=6 ∑R3=23
N=n1+n2+n3=18

4. Calculăm valoarea testului H după formula 11.4, aşa cum se vede în continuare,
obţinând H= -42,91
12 272 34 2 232 12 729 + 1156 + 529 −3∗19=¿
H=
18∗19 (

6
+
6
+
6 )
−3∗19=
342
* 6 6 ( 6 )
H=0,035*(121,5+192,66+88,166)-57=0,035*402,32-57=14,0812-57= -42,91

5.Citim în extrasul de mai jos cu tabelul valorilor critice pentru distribuţia Chi
pătrat(Anexa 6) la intersecţia liniei cu două grade de libertate df(3 grupuri de
valori-1) şi coloana lui p stabilit de 0,05, valoarea tabelară critică este 5,99.
Hcalculat=-42,91(semnul minus sau plus nu are nici o relevanţă)>Chi pătratcritic
=5,99(p=0,05, k-1).
Extras din Anexa 6 cu valorile criticepentru distribuţia Chi pătrat
P
df 0,05 0,025 0,01
1 3,84 5,02 6,64
2 5,99 7,38 9,21
3 7,81 9.35 11,34
Decizia statistică: valoarea testului H calculat este mai mare decât valoarea critică
tabelară Chi pătrat la un p= 0,05 şi la 2 grade de libertate(k-1, 3-1=2), ceea ce
înseamnă respingerea ipotezei de nul, adică a ideii că, culoarea glazurii prăjiturilor
(verde, roşie şi galbenă) nu determină preferinţa de consum a acestora.
Decizia cercetării:testul H(Kruskal-Wallis) pentru date ordinale a pus în evidenţă la un p
stabilit de 0,05 cu două grade de libertate(3k-1, a câte 6 subiecţi fiecare), faptul că a
existat o preferinţă diferită a celor 3 grupuri independente de subiecţi pentru consumul
aceluiaşi tip de prăjituri glazurate în culorile:verde, roşu şi galben.Pe baza testului H nu
se poate spune cu precizie, care anume culoare de glazură este preferată mai mult,ci
numai faptul că, preferinţa de consum a prăjiturilor glazurate în cele trei culori este
diferită.Pentru a afla culoarea de glazură cea mai preferată este necesară aplicarea unui
test pentru date cantitative.
Exerciţiul 11.6.(Testul Wilcoxon pentru două eşantioane perechi)
Ne propunem să scoatem în evidenţă efectul stresului temporal (criza de timp) asupra
performanţei de operare numerică. În acest scop, selectăm un eşantion de subiecţi cărora

402
le cerem să efectueze un test de calcule aritmetice în două condiţii experimentale
diferite: prima, în condiţii de timp nelimitat, cu recomandarea de a lucra cât mai corect; a
doua, în condiţii de timp limitat, cu condiţia de a lucra cât mai repede şi mai corect în
acelaşi timp.
Având în vedere numărul mic al subiecţilor cercetării prezentate şi la exerciţiul 7.3.7
pentru testul t pentru eşantioane dependente, refaceţi calculele utilizând testul
Wilcoxon:

Rezultatele celor două reprize sunt cele din tabelul următor:


Fără criză de Cu criză de timp
timp
67 65
79 73
83 70
80 85
99 93
95 88
80 72
100 69
Care sunt valoarea testului, decizia statistică şi concluzia cercetării în acest caz?

Tabelul 11.4. Exemplu de calcul pentru testul Willcoxon


Cod ”Înainte” ”După” ”După”- Modulul Rangul Semnul
subiect ”Înainte” diferenţei diferenţei diferenţei
1 65 67 -2 2 8 -
2 73 79 -6 6 5,5 -
3 70 83 -13 13 2 -
4 85 80 5 5 7 +
5 93 99 -6 6 5,5 -
6 88 95 -7 7 4 -
7 72 80 -8 8 3 -
8 69 100 -31 31 1 -

Coloanele tabelului prezintă etapele procedurii de calcul:


1.se calculează diferenţa dintre variabilele supuse testării
dacă sunt diferenţe nule, se elimină
2.se iau în considerare diferenţele în valoare absolută:
3.se construiesc rangurile pentru diferenţele în valoare absolută

403
4.se marchează semnul diferenţelor pentru fiecare pereche de valori

Din acest punct calcularea valorilor testului este simplă. Se calculează două valori T,
astfel: T(-), prin însumarea rangurilor diferenţelor negative, şi T(+), prin însumarea
rangurilor diferenţelor pozitive. Valoarea cea mai mică dintre ele este rezultatul testului
Wilcoxon, al cărui nivel de semnificaţie se află prin compararea cu valorile critice dintr-o
tabelă specială (Anexa 8), în funcţie de nivelul alfa ales şi de volumul eşantionului (N).
Testul se fundamentează pe ideea că atunci când ipoteza nulă este adevărată, ar trebui ca
suma rangurilor pentru diferenţele pozitive să fie egală cu suma rangurilor pentru
diferenţele negative. Pe măsură ce diferenţa dintre cele două sume este mai mare, ne
îndepărtăm de condiţia ipotezei de nul.
5.Se calculează cele două valori: T(+)=7 T(-)=29

6. T(+)= 7 este rezultatul testului Wilcoxon care se raportează la valoarea tabelară


critică citită în extrasul din Anexa specială 8(Anexa 8).

Anexa 8. Valorile critice pentru testul Wilcoxon


Nivel de seminficaţie pentru
test unilateral
0,025 0,01 0,005
N
Nivel de seminficaţie pentru
test bilateral
0,05 0,02 0,01
6 0 - -
7 2 0 -
8 4 2 0
9 6 3 2
10 8 5 3
7.Decizia statistică:valoarea calculată (7) este mai mare decât valoarea critică (4) pentru
N=8 şi alfa=0.5 bilateral. Ca urmare, suntem nevoiţi să acceptăm ipoteza de nul,
considerând neconfirmată ipoteza cercetării.

8.Concluzia cercetării, pentru exemplul dat, este aceea că datele studiului nu confirmă
existenţa unei relaţii între, stresul temporal(lucrul în condiţii de criză de timp) şi
rezultatele unui test de operaţii aritmetice efectuate de cei 8 subiecţi, care au efectuat
înainte aceleaşi operaţii fără să li se impună un timp limitat de rezolvare, aşa cum s-a
procedat în a doua situaţie. Testul Wilcoxon ne conduce la aceeaşi concluzie la care s-

404
ajuns şi cu ajutorul testului t pentru eşantioane dependente aplicat în exerciţiul 7.3.7
de la pagina 223, efectuat asupra aceloraşi date de cercetare.

Exerciţiul 11.8.(Testul Friedman-Fr pentru măsurări repetate)

Un neurofiziolog doreşte să verifice dacă există o relaţie între leziunea cerebrală stângă şi
tipul de deficit de memorie de scurtă durată, în trei tipuri de sarcină diferite: cifre, litere,
litere şi cifre amestecate.

Un număr de 6 subiecţi cu leziune cerebrală stângă au efectuat teste de memorie distincte,


pe şiruri de cifre, litere şi combinaţii de cifre şi litere. Performanţa înregistrată
marchează şirul cel mai lung memorat pentru fiecare test în parte.Datele cercetării sunt
prezentate în tabelul 11.5. prezentat în continuare.

Care este valoarea testului Friedman?

Care este decizia statistică şi ce concluzie trage cercetătorul?

1.Se porneşte de la formula 11.6 a testului Fridman(Fr) şi de la cele 3 categorii de


rezultate (Tabelul 11.5.), obţinute de cei 6 subiecţi cu leziuni cerebrale, la testele
distincte de memorie de memorie de scurtă durată(cifre, litere şi combinaţie între cifre şi
litere ).

(Formula 11.6)

unde:
c este numărul măsurărilor repetate
N este volumul seturilor de evaluări perechi

Ti este suma rangurilor corespunzătoare fiecărui moment de măsurare

La fel ca şi în cazul testului H (Kruskal-Wallis), distribuţia de nul a testului Friedman


urmează forma distribuţiei chi-pătrat pentru df=c-1.

405
Tabelul 11.5. cu rezultatele testelor repetate de memorie de scurtă durată(cifrele
reprezintă lungimea elementelor memorate la fiecare din cele 3 teste: cifre, litere şi
combinaţia cifre/litere)

Subiectul Scor Cifre Scor Litere Scor Cifre/Litere


A 6 5 6
B 8 7 5
C 7 7 4
D 8 5 8
E 6 4 7
F 7 6 5

Tabelul 11.6 cu ordonarea după rang a scorurilor obţinute de subiecţi la fiecare set de
evaluări

Subiectul Rang scor Cifre Rang scor Litere Rang scor


Cifre/Litere
A 1,5 3 1,5
B 1 2 3
C 1,5 1,5 3
D 1,5 3 1,5
E 2 3 1
F 1 2 3

N=6 T1= 12 T2= 14 T3= 20

Introducem valorile cercetării în formula 11.6:

12 12
Fr= 6∗3∗4 *(122+142+202)-3*6*4= 72 ∗( 144+196+ 400 )−72=¿

=0,1666*740 -72=123,284 - 72=51,284

Comparăm valoarea calculată a testului Fr(51,28) cu valoarea critică tabelară(vezi


extrasul din Anexa 6 cu valorile critice pentru distribuţia Chi pătrat) pentru df 3-1 şi
pragul alfa de 0,05 şi constatăm ca aceasta este 5,99.

406
Decizia statistică: Frcalculat>Chi pătratcritic(k-1, α=0,05), în consecinţă se respinge ipoteza
de nul şi se consideră confirmată ipoteza cercetării.
Concluzia cercetării: performanţele la testele de memorie de scurtă durată la subiecţii
cu leziuni cerebrale în emisfera stângă, sunt afectate şi variază semnificativ în funcţie
de tipul de sarcini de complexitate diferită(cifre, litere şi combinate cu cifre şi litere).
Testul Friedman(Fr) pentru măsurători repetate cu obţinerea de date ordinale, pune în
evidenţă acastă relaţie dintre leziunile cerebrale stângi şi memoria de scurtă durată la
tipuri de sarcini de complexitate diferită, cu aplicarea pe eşantioane relative reduse de
subiecţi. Anexa 6. Valorile critice pentru distribuţia chi-pătrat
P
df 0,05 0,025 0,01
1 3,84 5,02 6,64
2 5,99 7,38 9,21
3 7,81 9.35 11,34
4 9,49 11,14 13,28
5 11,07 12,83 15,09

Exerciţiul 11.10 (Coeficientul de corelaţie pentru date ordinale Spearman)


Într-o şcoală de pilotaj a fost organizat un curs de optimizare a evaluării elevilor de
către instructori, cu scopul de a se uniformiza criteriile de evaluare.

După terminarea cursului, doi instructori sunt puşi să efectueze, fiecare, un număr de
ore de zbor cu aceiaşi 10 elevi, după care li se cere să facă o ierarhie a lor.

Elev Instructor 1 Instructor 2


A 3 3
B 1 2
C 7 6
D 6 7
E 10 10
F 5 4
G 9 8
H 8 9
I 4 5
J 2 1

407
Care este valoarea corelaţiei dintre evaluările celor doi instructori? Care este decizia
statistică şi concluzia cercetării în acest caz?

Tabelul 11.7. Datele cercetării şi modul de calcul pentru testul Spearman


Elev Rang Rang Diferenţa (D) D2
instructor 1 instructor 2 (R1-R2)
A 3 3 0 0
B 1 2 -1 1
C 7 6 1 1
D 6 7 -1 1
E 10 10 0 0
F 5 4 1 1
G 9 8 1 1
H 8 9 -1 1
I 4 5 -1 1
J 2 1 1 1
∑D2=8

Dacă înlocuim în formula de calcul 11.7. pentru coeficientul de corelaţie a rangurilor


Spearman, datele cercetării obţinem:

(Formula 11.7)

6∗8 48
Rs =1 – 10∗( 100−1 )
=1−
990
=1−0 ,048=0 , 95

Acum citim în extrasul de mai jos din Anexa 9(Anexa 9) valoarea critică pentru testul
de corelaţie a rangurilor Spearman la intersecţia liniei N=10 cu culoana pragului alfa de
0,05.
Decizia statistică: rs calculat(0,95) >rscritic (0,648). Ipoteza de nul se respinge.
Concluzia cercetării: evaluările celor doi instructori sunt semnificativ concordante.
Programul de training pentru uniformizarea criteriilor de evaluare a elevilor piloţi a avut
efectul scontat.
Anexa 9. Valorile critice pentru testul de corelaţie a rangurilor (Spearman)
N Test unilateral

408
a = 0,05 a = 0,025 a = 0,01 a = 0,005
Test bilateral
a = 0,10 a = 0,05 a = 0,02 a = 0,01
5 0,900
6 0,829 0,886 0,943
7 0,714 0,786 0,893
8 0,643 0,738 0,833 0,881
9 0,600 0,683 0,783 0,833
10 0,564 0,648 0,745 0,794
11 0,523 0,623 0,736 0,818
12 0,497 0,591 0,703 0,780

Exerciţiile 13.11.(aplicarea algoritmului de alegere a procedurii statistice-


vezi şi Anexa 10)

Citiţi contextul experimental şi alegeţi procedura adecvată statistică, în funcţie


de obiectivul analizei şi de tipul de variabilă. Atenţie, pentru rezolvarea
exerciţiilor variabilele vor fi luate în considerare sub forma prezentată, fără a fi
transformate pe o altă scală de măsurare!
1.Un eşantion de elevi piloţi este testat sub aspectul capacităţii de rezolvare a
unei sarcini de reprezentare spaţială (exprimat prin numărul răspunsurilor
corecte şi viteza de rezolvare), cu scopul de a vedea în ce măsură aceasta este
influenţată de numărul orelor de zbor acumulate în carieră (exprimate ca atare).

-Ne aflăm în faţa unui studiu de asociere între variabile efectuat pe un singur
eşantion aparţinând popuaţiei statistice de elevi piloţi;
-Variabila dependentă testată: capacitatea de rezolvare a sarcinilor de
reprezentare spaţială exprimată pe scala I/R;
-Variabila independentă: numărul ore de zbor acumulate în carieră exprimate pe
scala I/R;
-Alegerea statisticii descriptive:distribuţia de frecvenţe,histograma(poligonul de
frecvenţe);
-Măsura tendinţei centrale:media(dacă distribuţia este simetrică), mediana(dacă
distribuţia este asimetrică);

409
-Măsura variabilităţii:abaterea standard(dacă distribuţia este simetrică) sau
amplitudinea(dacă distribuţia este asimetrică);
-Alegerea testului statistic:analiza de corelaţie liniară simplă Pearson r, regresia
liniară simplă;
-Întrebările care ni le punem, după alegerea coeficientului de corelaţie simplă
liniară r ca test de bază pentru a confirma ipoteza cercetării, pot fi:1.„Care este
coeficientul de corelaţie între cele două variabile?”, 2.”Va fi coeficientul de
corelaţie r obţinut, semnificativ la un nivel alfa=0,05, bilateral?”, ”Va fi
coeficientul de determinare r 2 ca mărime a efectului, de nivel mediu spre mare,
cel puţin?”, ”Care sunt limitele r pentru un interval de încredere de 95%?”
-Mărimea eşantionului:nu mai mic de 50 de subiecţi pentru a da putere testului;
-Obţinerea şi inspectarea graficului scatterplot(pentru a analiza efectul unor
eventuale valori extreme şi chiar despre existenţa unui alt tip de asociere decât
cel rectiliniu);
-Stabilirea mărimii efectului:valoarea coeficientului de corelaţie r este, prin ea
însăşi, un indicator de mărime a efectului; totuşi, în acest scop se utilizează
coeficientul de determinare r 2 ;
-Cerinţele impuse pentru publicarea rezultatului şi concluziei acestei cercetări
sunt:pe lângă raportarea coeficientului de corelaţie r rezultat, pragul său de
semnificaţie atins(Anexa 4),coeficientul de determinare ca mărime a efectului,
mai trebuie reluaţi în rezumat, indicatorii statistici descriptivi(medie, abatere
standard, indicatorii simetriei şi aplatizării, graficul scatterplot) şi volumul
eşantionului.
Prezentarea limitelor de încredere de 95%, nu este uzuală, poate şi pentru că
programele statistice obişnuite nu le oferă, dar calcularea şi includerea lor în documentul
cercetării este de dorit.

2.Un eşantion de dreptaci, unul de stângaci şi unul de ambidextri au fost testaţi


sub aspectul capacităţii de recunoaştere tactilă, fiecare subiect este testat
pentru ambele mâini, ca urmare, se pot face diferenţele de performanţă obţinute

410
cu cele două mâini. Cercetătorul măsoară numărul obiectelor corect identificate
cu fiecare mână.

-Contextul experimental se referă la comparaţia dintre mai mult de două grupuri,


independente de subiecţi(dreptaci, stângaci şi ambidextri) prin testarea
diferenţei dintre scorurile medii pe grup ale subiecţilor din cele 3 grupuri la
testul privind capacitatea de recunoaştere tactilă a obiectelor, atât cu mâna
dreaptă, cât şi cu mâna stângă;

-Variabila dependentă testată este capacitatea de recunoaştere tactilă a


obiectelor de către subiecţii din cele 3 grupuri independente, atât cu mâna
dreaptă, cât şi cu mâna stângă, practic avem de-aface cu 2 variabile
dependente, care aparţin scalei de măsură I/R(performanţa fiecarei mâini
constând în numărul de obiecte correct identificate cu fiecare mână);

-Variabila independentă este una nominal – categorială, care face deosebirea


subiecţilor din cele 3 eşantioane privind apartenenţa lor la 3 populaţii disticte:
dreptaci, stângaci şi ambidextri(pentru a creşte puterea testului este de dorit ca
numărul subiecţilor din cele 3 eşantioane să fie egal şi să depăşească un anumit
volum, despre care explicăm în continuare);

-Pentru că variabila independentă ia 3 valori(dreptaci stângaci şi ambidextrii)se


recomandă de către cercetători, ca eşantioanele comparate să aibă un număr
minim de 30 de subiecţi fiecare(30*3=90 subiecţi);

-Alegerea statisticii descriptive:distribuţia de frecvenţe,histograma(poligonul de


frecvenţe);
- Măsura tendinţei centrale:media(dacă distribuţia este simetrică), mediana(dacă
distribuţia este asimetrică);
-Măsura variabilităţii:abaterea standard(dacă distribuţia este simetrică) sau
amplitudinea(dacă distribuţia este asimetrică);
-Alegerea testului statistic după variabilele identificate până aici: ANOVA
factorial(3 variabile independente:dreptaci, stângaci şi ambidextrii), dacă nu

411
există abatere semnificativă a distribuţiei performanţelor cu mână
dreaptă/stângă, de la curba normal, la testul de recunoaştere senzorială a
obiectelor;dacă datele analizei descriptive ne descriu o distribuţie asimetrică a
variabilelei dependente, atunci ANOVA factorial este înlocuit cu teste
neparametrice avansate sau testul Kruskal-Wallis, pentru date ordinale;

- Testul ANOVA se calculează ca raport între varianţa intergrup (împrăştierea mediilor


grupurilor comparate) şi varianţă intragrup (împrăştierea valorilor luate împreună ale
grupurilor comparate). Acesta se numeşte raportul Fischer (F), care urmează forma unei
distribuţii cu originea în 0, asimetrică pozitiv şi asimptotică la axa Ox.
-O valoare semnificativă a testului F ne îndreptăţeşte să considerăm că diferenţa dintre
mediile grupurilor comparate este suficient de mare pentru a nu fi întâmplătoare.
Această concluzie are un caracter global, care priveşte variaţia tuturor mediilor, fără a
ne spune ceva despre raporturile dintre medii una faţă de alta.
-Analiza „post-hoc" completează analiza de variantă, prin compararea mediilor luate
două câte două, cu teste speciale, care încearcă atenuarea efectului de cumul al erorii
de tip I.
-Este important de reţinut, de asemenea, faptul că analiza post-hoc este practicată, de
regulă, numai dacă a fost obţinut un rezultat semnificativ pentru testul F(Anexa 3).
Aceasta înseamnă că analiza post-hoc nu poate fi utilizată ca substitut pentru testul t
efectuat în mod repetat. Ca urmare, în practică, analiza de varianţă va cuprinde două
faze: prima, în care se decide asupra semnificaţiei testului F, şi a doua, în cazul că acest
raport este semnificativ, în care se analizează comparativ diferenţele dintre categoriile
analizate, pe baza unui test post- hoc.

-Mărimea efectului pentru testul ANOVA se evaluează cu ajutorul a mai multor


indicatori, dintre care cei mai utilizaţi sunt eta - pătrat (η2) şi omega - pătrat(F).

4. Un profesor ţine sub observaţie copii din trei categorii de familii: cu un


singur părinte, care lucrează: cu doi părinţi, ambii părinţi având serviciu, cu doi
părinţi, din care numai unul are serviciu. Pentru fiecare copil este măsurat
numărul de intervenţii fără a fi întrebat. Pe ansamblu, rezultatele arată că cei

412
mai mulţi copii obţin scorul 0, un număr mare obţin 1 sau doi, şi câţiva obţin
scoruri mari.
- Contextul experimental se referă la comparaţia dintre 3 categorii de copii
provenind din 3 categorii independente de familii(cu un singur părinte care
lucrează, cu ambii părinţi care lucrează şi cu ambii părinţi, dar numai unul
lucrează) în privinţa numărului de intervenţii al copiilor la clasă(3 categorii de
intervenţi: nici una, cu una sau două intervenţii şi căţiva cu mai mult de 2
intervenţii);
- Variabila dependentă: pe scală categorial-numerică de tip I/R(0 intervenţii, cu
1-2 intervenţii cu mai mult de 2 intervenţii);
-Variabila independentă: nominal - categorială(cu un singur părinte care
lucrează, cu ambii părinţi şi ambii lucrează, cu ambii părinţi, dar numai unul
lucrează);
-Ipoteza cercetării:există o asociere între tipul de familie mono şi biparentală pe
de-o parte,părinţi cu şi fără serviciu, pe de altă parte şi numărul de intervenţii
la clasă a copiilor proveniţi din aceste categorii de familii, adică există o
diferenţă între copii care sunt crescuţi în astfel de familii ;
-Variabila dependentă-numărul de intervenţii la clasă, deşii este exprimată pe o
scală I/R, pare să producă o distribuţie asimetrică spre stânga(cei mai mulţi
copii nu au deloc sau au una sau două intervenţii la clasă);aceasta poate
produce ranguri diferite ale copiilor din cele 3 tipuri de familii, ţinând cont de
numărul intervenţiilor la clasă;
-Testul statistic recomandat în această cercetare este Kruskal Wallis pentru date
ordinale în cazul a mai mult de două eşantioane independente(corespondentul
lui ANOVA pentru date cantitative).
-Diferenţele mici dintre rangurile grupurilor conduc spre valori ale testului care
tind spre 0 şi sunt implicit, nesemnificative;
-Valoarea critică a testului se citeşte din tabelul distribuţiei Chi pătrat pentru
df=k-1(Anexa 6).

413
Anexe

414
Anexa 1: Tabelul distribuţiei valorilor sub curba normală z (valorile din tabel
indică valorile dintre 0 şi z)
Z 0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0 0.00000 0.00399 0.00798 0.01197 0.01595 0.01994 0.02392 0.02790 0.03188 0.03586
0.1 0.03983 0.04380 0.04776 0.05172 0.05567 0.05962 0.06356 0.06749 0.07142 0.07535
0.2 0.07926 0.08317 0.08706 0.09095 0.09483 0.09871 0.10257 0.10642 0.11026 0.11409
0.3 0.11791 0.12172 0.12552 0.12930 0.13307 0.13683 0.14058 0.14431 0.14803 0.15173
0.4 0.15542 0.15910 0.16276 0.16640 0.17003 0.17364 0.17724 0.18082 0.18439 0.18793
0.5 0.19146 0.19497 0.19847 0.20194 0.20540 0.20884 0.21226 0.21566 0.21904 0.22240
0.6 0.22575 0.22907 0.23237 0.23565 0.23891 0.24215 0.24537 0.24857 0.25175 0.25490
0.7 0.25804 0.26115 0.26424 0.26730 0.27035 0.27337 0.27637 0.27935 0.28230 0.28524
0.8 0.28814 0.29103 0.29389 0.29673 0.29955 0.30234 0.30511 0.30785 0.31057 0.31327
0.9 0.31594 0.31859 0.32121 0.32381 0.32639 0.32894 0.33147 0.33398 0.33646 0.33891
1 0.34134 0.34375 0.34614 0.34849 0.35083 0.35314 0.35543 0.35769 0.35993 0.36214
1.1 0.36433 0.36650 0.36864 0.37076 0.37286 0.37493 0.37698 0.37900 0.38100 0.38298
1.2 0.38493 0.38686 0.38877 0.39065 0.39251 0.39435 0.39617 0.39796 0.39973 0.40147
1.3 0.40320 0.40490 0.40658 0.40824 0.40988 0.41149 0.41309 0.41466 0.41621 0.41774
1.4 0.41924 0.42073 0.42220 0.42364 0.42507 0.42647 0.42785 0.42922 0.43056 0.43189
1.5 0.43319 0.43448 0.43574 0.43699 0.43822 0.43943 0.44062 0.44179 0.44295 0.44408
1.6 0.44520 0.44630 0.44738 0.44845 0.44950 0.45053 0.45154 0.45254 0.45352 0.45449
1.7 0.45543 0.45637 0.45728 0.45818 0.45907 0.45994 0.46080 0.46164 0.46246 0.46327
1.8 0.46407 0.46485 0.46562 0.46638 0.46712 0.46784 0.46856 0.46926 0.46995 0.47062
1.9 0.47128 0.47193 0.47257 0.47320 0.47381 0.47441 0.47500 0.47558 0.47615 0.47670
2 0.47725 0.47778 0.47831 0.47882 0.47932 0.47982 0.48030 0.48077 0.48124 0.48169
2.1 0.48214 0.48257 0.48300 0.48341 0.48382 0.48422 0.48461 0.48500 0.48537 0.48574
2.2 0.48610 0.48645 0.48679 0.48713 0.48745 0.48778 0.48809 0.48840 0.48870 0.48899
2.3 0.48928 0.48956 0.48983 0.49010 0.49036 0.49061 0.49086 0.49111 0.49134 0.49158
2.4 0.49180 0.49202 0.49224 0.49245 0.49266 0.49286 0.49305 0.49324 0.49343 0.49361
2.5 0.49379 0.49396 0.49413 0.49430 0.49446 0.49461 0.49477 0.49492 0.49506 0.49520
2.6 0.49534 0.49547 0.49560 0.49573 0.49585 0.49598 0.49609 0.49621 0.49632 0.49643
2.7 0.49653 0.49664 0.49674 0.49683 0.49693 0.49702 0.49711 0.49720 0.49728 0.49736
2.8 0.49744 0.49752 0.49760 0.49767 0.49774 0.49781 0.49788 0.49795 0.49801 0.49807
2.9 0.49813 0.49819 0.49825 0.49831 0.49836 0.49841 0.49846 0.49851 0.49856 0.49861
3 0.49865 0.49869 0.49874 0.49878 0.49882 0.49886 0.49889 0.49893 0.49896 0.49900
3.1 0.49903 0.49906 0.49910 0.49913 0.49916 0.49918 0.49921 0.49924 0.49926 0.49929
3.2 0.49931 0.49934 0.49936 0.49938 0.49940 0.49942 0.49944 0.49946 0.49948 0.49950
3.3 0.49952 0.49953 0.49955 0.49957 0.49958 0.49960 0.49961 0.49962 0.49964 0.49965
3.4 0.49966 0.49968 0.49969 0.49970 0.49971 0.49972 0.49973 0.49974 0.49975 0.49976
3.5 0.49977 0.49978 0.49978 0.49979 0.49980 0.49981 0.49981 0.49982 0.49983 0.49983
3.6 0.49984 0.49985 0.49985 0.49986 0.49986 0.49987 0.49987 0.49988 0.49988 0.49989
3.7 0.49989 0.49990 0.49990 0.49990 0.49991 0.49991 0.49992 0.49992 0.49992 0.49992
3.8 0.49993 0.49993 0.49993 0.49994 0.49994 0.49994 0.49994 0.49995 0.49995 0.49995
3.9 0.49995 0.49995 0.49996 0.49996 0.49996 0.49996 0.49996 0.49996 0.49997 0.49997
4 0.49997 0.49997 0.49997 0.49997 0.49997 0.49997 0.49998 0.49998 0.49998 0.49998
4.1 0.49998 0.49998 0.49998 0.49998 0.49998 0.49998 0.49998 0.49998 0.49999 0.49999
4.2 0.49999 0.49999 0.49999 0.49999 0.49999 0.49999 0.49999 0.49999 0.49999 0.49999
4.3 0.49999 0.49999 0.49999 0.49999 0.49999 0.49999 0.49999 0.49999 0.49999 0.49999
4.4 0.49999 0.49999 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000
4.5 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000
4.6 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000
4.7 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000
4.8 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000

415
4.9 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000
5 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000
5.1 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000
5.2 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000
5.3 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000
5.4 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000
5.5 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000
5.6 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000
5.7 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000
5.8 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000
5.9 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000
6 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000 0.50000
Sursa: http://brdl .ucsc.edu/exp_design/Z_table.htm

416
Anexa 2.Tabelul valorilor critice pentru distribuţia t Student (unilateral)
df a = 6,10 a = 0,05 a = 0,025 a = 0,01 a = 0,005 a = 0,0005
1 3,078 6,314 12,706 31,821 63,657 636,620
2 1,886 2,920 4,303 6,965 9,925 31,598
3 1,638 2,353 3,182 4,541 5,841 12,924
4 1.&3 2,132 2,776 3,747 4,604 8,610
5 1,476 2,015 2.571 3,365 4,032 6^869
6 1,440 1,943 2,447 3,143 3,707 5,959
7 1,415 1,895 2,365 2,998 3,499 5,408
8 1,397 1,860 2,306 2,896 3,355 5,041
9 1.383 1,833 2,262 2,821 3,250 4,781
10 1,372 1,812 2,228 2,764 3,169 4,587
11 1,363 1,796 . 2,201 2.718 3,106 4,437
12 1,356 1,782 2,179 2,681 3,055 4,318
13 1,350 1,771 2,160 2,650 3,102 4,221
14 1,345 1,760 2,145 2,624 2,977 4,140
15 1,341 1,753 2,131 2,602 2,947 4,073
16 1,337 1,746 2,120 2,583 2,921 4.015
17 1,333 1,740 2,110 2,567 2,898 3,965
18 1,330 1,734 2,101 2,552 2,878 3.922
19 1,328 1,729 2,093 2,539 2,861 3,883
20 1,325 1,725 2,086 2,528 2,845 3,850
21 1,323 1,721 2,080 2,528 2,831 3.819
22 1,321 1.717 2,074 2,508 2,819 3,792
23 1,319 1,714 2,069 2,500 2.807 3,767
24 1,318 1,711 2.064 2,492 2.797 3,745
25 1,316 1,708 2,060 2,485 2.787 3,725
26 1,315 1,706 2,056 2,479 2.779 3,707
27 1,314 1,703 2,052 2.473 2,771 3.690
28 1,313 1,701 2.04K 2.467 2,763 3,674
29 1,311 1,699 2,045 2.462 2,756 3,659
30 1,310 1.697 2,042 2.457 2,750 3,646
40 1,303 1,684 2,021 2,423 2,704 3,551
60 1,2% 1,671 2,000 2.390 2,660 3,460
120 1,289 1,658 1,980 2,358 2,617 3,373
▲ 1,282 1,645 1.960 2,326 2,576 3,291

417
Anexa 3. Tabelul parţial al distribuţiei F pentru ά=0.051
df df intergrup (between)
intragrup
I 2 3 4 5 6 7 8 9 10
(within)
1 161.4476 199.5000 215.7073 224.5832 230.1619 233.9860 236.7684 238.8827 240.5433 241.8817
2 18.5128 19.0000 19.1643 19.2468 19.2964 19.3295 19.3532 19.3710 19.3848 19.3959
3 10.1280 9.5521 9.2766 9.1172 9.0135 8.9406 8.8867 8.8452 8.8123 8.7855
4 7.7086 6.9443 6.5914 6.3882 6.2561 6.1631 6.0942 6.0410 5.9988 5.9644
5 6.6079 5.7861 5.4095 5.1922 5.0503 4.9503 4.8759 4.8183 4.7725 4.7351
6 5.9874 5.1433 4.7571 4.5337 4.3874 4.2839 4.2067 4.1468 4.0990 4.0600
7 5.5914 4.7374 4.3468 4.1203 3.9715 3.8660 3.7870 3.7257 3.6767 3.6365
8 5.3177 4.4590 4.0662 3.8379 3.6875 3.5806 3.5005 3.4381 3.3881 3.3472
9 5.1174 4.2565 3.8625 3.6331 3.4817 3.3738 3.2927 3.2296 3.1789 3.1373
10 4.9646 4.1028 3.7083 3.4780 3.3258 3.2172 3.1355 3.0717 3.0204 2.9782
11 4.8443 3.9823 3.5874 3.3567 3.2039 3.0946 3.0123 2.9480 2.8962 2.8536
12 4.7472 3.8853 3.4903 3.2592 3.1059 2.9961 2.9134 2.8486 2.7964 2.7534
13 4.6672 3.8056 3.4105 3.1791 3.0254 2.9153 2.8321 2.7669 2.7144 2.6710
14 4.6001 3.7389 3.3439 3.1122 2.9582 2.8477 2.7642 2.6987 2.6458 2.6022
15 4.5431 3.6823 3.2874 3.0556 2.9013 2.7905 2.7066 2.6408 2.5876 2.5437
16 4.4940 3.6337 3.2389 3.0069 2.8524 2.7413 2.6572 2.5911 2.5377 2.4935
17 4.4513 3.5915 3.1968 2.9647 2.8100 2.6987 2.6143 2.5480 2.4943 2.4499
18 4.4139 3.5546 3.1599 2.9277 2.7729 2.6613 2.5767 2.5102 2.4563 2.4117
19 4.3807 3.5219 3.1274 2.8951 2.7401 2.6283 2.5435 2.4768 2.4227 2.3779
20 4.3512 3.4928 3.0984 2.8661 2.7109 2.5990 2.5140 2.4471 2.3928 2.3479
21 4.3248 3.4668 3.0725 2.8401 2.6848 2.5727 2.4876 2.4205 2.3660 2.3210
22 4.3009 3.4434 3.0491 2.8167 2.6613 2.5491 2.4638 2.3965 2.3419 2.2967
23 4.2793 3.4221 3.0280 2.7955 2.6400 2.5277 2.4422 2.3748 2.3201 2.2747
24 4.2597 3.4028 3.0088 2.7763 2.6207 2.5082 2.4226 2.3551 2.3002 2.2547
25 4.2417 3.3852 2.9912 2.7587 2.6030 2.4904 2.4047 2.3371 2.2821 2.2365
26 4.2252 3.3690 2.9752 2.7426 2.5868 2.4741 2.3883 2.3205 2.2655 2.2197
27 4.2100 3.3541 2.9604 2.7278 2.5719 2.4591 2.3732 2.3053 2.2501 2.2043
28 4.1960 3.3404 2.9467 2.7141 2.5581 2.4453 2.3593 2.2913 2.2360 2.1900
29 4.1830 3.3277 2.9340 2.7014 2.5454 2.4324 2.3463 2.2783 2.2229 2.1768
30 4.1709 3.3158 2.9223 2.6896 2.5336 2.4205 2.3343 2.2662 2.2107 2.1646
1
Tabelul este aplicabil pentru maxim 11 grupuri (dfBetween = 10) şi dfWithin maxim=30. Tabele complete pentru F
se găsesc în manualele recomandate în bibliografie.
Sursa: Electronic Textbook. STATSOFT, Copyright StatSoft, Inc., 1984-1999

418
Anexa 4. Valorile critice pentru coeficientul de corelaţie Pearson (r)
Unilateral
p = 0,05 p = 0,25 p = 0,01 p = 0,005
Bilateral
df p = 0,10 p = 0,05 p = 0,02 p = 0,01
1 0,988 0,997 0.9995 0,9999
2 0,9 0,95 0,98 0,99
3 0,805 0,878 0,934 0,959
4 0,729 0,811 0,882 0,917
5 0,669 0,754 0,833 0,874
6 0,622 0,707 0,789 0.834
7 0,582 0,666 0,75 0,798
8 0,549 0,632 0,716 0,765
9 0,521 0,602 0,685 0,735
10 0,497 0,576 0,658 0,708
U 0,476 0,553 0,634 0,684
12 0,458 0,532 0,612 0,661
13 0,441 0,514 0,592 0,641
14 0,426 0.497 0,574 0,623
15 0,412 0,482 0,558 0,606
16 0,4 0,468 0,542 0,59
17 0,389 0,456 0,528 0,575
18 0,378 0,444 0,516 0,561
19 0,369 0,433 0,503 0,549
20 0,36 0,423 0.492 0,537
21 0,352 0,413 0,482 0,526
22 0,344 0,404 0,472 0,515
23 0,337 0,396 0.462 0,505
24 0,33 0,388 0,453 0,496
25 0,323 0,381 0,445 0,487
26 0,317 0,374 0,437 0.479
27 0,311 0,367 0,43 0,471
28 0,306 0,361 0,423 0,463
29 0,301 0,355 0,416 0,456
30 0.296 0,349 0,409 0,449
35 0,27.5 0,325 0,381 0,418
40 0,297 0,304 0,358 0,393
45 0,243 0,288 0,338 0,372
50 0,231 0,273 0,322 0,354
60 0,211 0,25 0,295 0.325
70 0,195 0,232 0,274 0,302
80 0,183 0,217 0,256 0,283
90 0,173 0,205 0,242 0,267
100 0,164 0,195 0,23 0,254

Anexa 5. Tabelul Fisher de transformare a valorilor r în scoruri Z

419
R Z r z r Z R Z
0,0000 0.0000 0,2600 0.2661 0,5200 0.5763 0.7800 1.0454
0.0100 0,0100 0,2700 0.2769 0,5300 0.5901 0,7900 1.0714
0,0200 0,0200 0,2800 0.2877 0,5400 0.6042 0,8000 1.0986
0,0300 0,0300 0,2900 0.2986 0,5500 0.6184 0,8100 1.1270
0.0400 0,0400 0,3000 0.3095 0,5600 0,6328 0.8200 1.1568
0,0500 0,0500 0,3100 0,3205 0,5700 0.6475 0,8300 1.1881
0,0600 0,0601 0,3200 0,3316 0,5800 0.6625 0,8400 1.2212
0,0700 0,0701 0.3300 0,3428 0,5900 0.6777 0,8500 1.2562
0,0800 0,0802 0,3400 0.3541 0,6000 0,6931 0,8600 1.2933
0,0900 0,0902 0,3500 0.3654 0,6100 0.7089 0,8700 1.3331
0,1000 0,1003 0,3600 0.3769 0,6200 0.7250 0,8800 1.3758
0,1100 0.1104 0,3700 0,3884 0,6300 0,7414 0,8900 1.4219
0,1200 0.1206 0,3800 0.4001 0,6400 0.7582 0,9000 1.4722
0,1300 0.1307 0,3900 0.4118 0,6500 0.7753 0,9100 1.5275
0,1400 0.1409 0,4000 0.4236 0,6600 0.7928 0,9200 1.5890
0,1500 0.1511 0,4100 0.4356 0,6700 0.8107 0,9300 1.6584
0,1600 0.1614 0.4200 0.4477 0.6800 0,8291 0,9400 1.7380
0,1700 0.1717 0,4300 0,4599 0,6900 0,8480 0,9500 1.8318
0,1800 0.1820 0,4400 0.4722 0.7000 0,8673 0.9600 1.9459
0.1900 0.1923 0,4500 0,4847 0,7100 0,8872 0,9700 2.0923
0.2000 0.2027 0,4600 0,4973 0,7200 0.9076 0.9800 2,2976
0,2100 0.2132 0,4700 0.5101 0,7300 0.9287 0,9900 2.6467
0,2200 0.2237 0,4800 0.5230 0,7400 0,9505
0,2300 0.2342 0,4900 0.5361 0,7500 0,9730
0,2400 0.2448 0,5000 0,5493 0,7600 0,9962
0,2500 0.2554 0,5100 0.5627 0.7700 1.0203

420
Anexa 6. Valorile critice pentru distribuţia chi-pătrat
P
df 0,05 0,025 0,01
1 3,84 5,02 6,64
2 5,99 7,38 9,21
3 7,81 9.35 11,34
4 9,49 11,14 13,28
5 11,07 12,83 15,09
6 12,59 14,45 16,81
7 14,07 16,01 18,48
8 15,51 17,53 20,09
9 16.92 19,02 21,67
10 18,31 20,48 23,21
11 19,68 21,92 24,72
12 21,03 23,34 26,22
13 22,36 24,74 27,69
14 23,68 26,11 29,14
15 25,00 27,49 30,58
16 26.30 28,85 32,00
17 27,59 30,19 33,41
18 28,87 31,53 34,80
19 30,14 32,85 36,19
20 31,41 34,17 37,57
21 32,67 35,48 38,93
22 33,92 36,78 40,29
23 35,17 38,08 41,64
24 36,42 39,36 42,98
25 37,65 40,65 44,31
26 38,88 41,92 45,64
27 40,11 43,19 46,96
28 41,34 44,46 48,28
29 42,56 45,72 49,59
30 43,77 46,98 50,89
40 55,76 59,34 63,69
50 67,50 71,42 76.15
60 79,08 83,29 88,38
70 90,53 95,02 100,42
80 101,88 106,63 100,43
90 113,15 118,14 124,12
100 124,34 129,56 135,81

421
Anexa 7. Tabelul valorilor critice pentru testul Mann-Whitney (U)
iu/mi a 5 6 8 10 12 14 16 18 20
0,05 0 1 2 3 4 5 6 7 8
3
0,01 - - - 0 l 1 2 2 3
0,05 1 2 4 5 7 9 11 12 14
4
0,01 - 0 1 2 3 4 5 6 8
0,05 2 3 6 8 11 13 15 18 20
5
0,01 0 1 2 4 6 7 9 11 13
0,05 3 5 8 11 14 17 21 24 27
6
0,01 1 2 4 6 9 11 13 16 18
0,05 6 8 13 17 22 26 31 36 41
8
0,01 2 4 7 11 15 18 22 26 30
0,05 8 11 17 23 29 36 42 48 55
10
0,01 4 6 11 16 21 26 31 37 42
0,05 11 14 22 29 37 45 53 61 69
12
0,01 6 9 15 21 27 34 41 47 54
0,05 13 17 26 36 45 55 64 74 83
14
0,01 7 11 18 26 34 42 50 58 67
0,05 15 21 31 42 53 64 75 86 98
16
0,01 9 13 22 31 41 50 60 70 79
0,05 18 24 36 48 61 74 86 99 112
18
0,01 11 16 26 37 47 58 70 81 92
0,05 20 27 41 55 69 83 98 112 127
20
0,01 13 18 30 42 54 67 79 92 105

422
Anexa 8. Valorile critice pentru testul Wilcoxon
Nivel de seminficaţie pentru test
unilateral
0,025 0,01 0,005
N
Nivel de seminficaţie pentru test
bilateral
0,05 0,02 0,01
6 0 - -
7 2 0 -
8 4 2 0
9 6 3 2
10 8 5 3
11 11 7 5
12 14 10 7
13 17 13 10
14 21 16 13
15 25 20 16
16 30 24 20
17 35 28 23
18 40 33 28
19 46 38 32
20 52 43 38
21 59 49 43
22 66 56 49
23 73 62 55
24 81 69 61
25 89 77 68

423
Anexa 9. Valorile critice pentru testul de corelaţie a rangurilor (Spearman)
Test unilateral
a = 0,05 a = 0,025 a = 0,01 a = 0,005
N
Test bilateral
a = 0,10 a = 0,05 a = 0,02 a = 0,01
5 0,900
6 0,829 0,886 0,943
7 0,714 0,786 0,893
8 0,643 0,738 0,833 0,881
9 0,600 0,683 0,783 0,833
10 0,564 0,648 0,745 0,794
11 0,523 0,623 0,736 0,818
12 0,497 0,591 0,703 0,780
13 0,475 0,566 0,673 0,745
14 0,457 0,545 0,646 0,716
15 0,441 0,525 0,623 0,689
16 0,425 0,507 0,601 0,666
17 0,412 0,490 0,582 0,645
18 0,399 0,476 0,564 0,625
19 0,388 0,462 0,549 0,608
20 0,377 0,450 0,534 0,591
21 0,368 0,438 0,521 0,576
22 0,359 0,428 0,508 0,562
23 0,351 0,418 0,496 0,549
24 0,343 0,409 0,485 0,537
25 0,336 0,400 0,475 0,526
26 0,329 0,392 0,465 0,515
27 0,323 0,385 0,456 0,505
28 0,317 0,377 0,448 0,496
29 0,311 0,370 0,440 0,487
30 0,305 0,364 0,432 0,478

424
Anexa 10
Statistica inferenţială 1: Testarea ipotezelor cu o singură variabilă dependentă
Anexa 11
STATISTICA INFERENŢIALĂ 2: Testarea ipotezelor pentru mai mult de o variabilă dependentă

426
Bibliografie

427
American Psychological Association. (2001). Publication Manual of the American Psychological Association, ed. a V-a. Washington. DC:
American Psychological Association. American Statistical Association. (1999). .Ethical Guidelines for Statistical Practice", http://
www.amstat.org/profession/index.cfm ?fuseaction=ethicaIstatistics, accesat la 12.12.2007
Anastasi, A., Urbina S.,(1997), Psihological testing, ediţia a 7-a, Prentince Hall, Upper Saddle River, New Jersey.
Aron. A.; Aron. E.N. (1999). Statistics for psychology, ed. a Il-a. Upper Saddle River. NJ: Prentice Hall.
Bordens, K. & Abott, B., (1991). Research design and methods. A process approach. Mayfield Publishing, California.
Breakwell, G. & Hammond, S., (1995). Research methods in psychology. Sage Publications. London.
Bryman, Alan, Cramer, Duncan(2005),Quantitative Data Analysis with SPSS 12 and 13, A guide for Social Scientists, by
Routledge, 270 Madison Avenue, New York, NY 10016.
Buchner, A., Erdfelder, E., Faul F., (1997), How to use G Power.
http://www.psycho.uniduesseldorf.de/aap/projects/gpower/how_to_use_gpower.html.
Clocotici, V., Stan, A. (2000), Statistică aplicată în psihologie, Iaşi, Polirom.
Cohen, B.(2004),Explaning Psychological Statistics, ed. a II-a, New York: John Wiley & Sons, Inc.
Coolican, Hugh,() Research Methods and Statistics in Psychology, second edition,Londra: Hodder & Stoughton.
Coules, Michael,(2001), Statistics in Psychology An Historical Perspective, Second Edition, New Jersey, London.
Dane, F., (1990). Research mehods. Brooks, Cole, California.
Everitt, B. & Wykes, T., (1999). A dictionary of statistics for psychologists. Oxford Hill, New-York.
Faverge, J.M.,(1963). Methodes statistiques en psychologie applique, vol I,II, PUF, Paris.
Gheorghiu Dumitru, (2003) Statistică aplicată în psihologie, Ed. Universităţii Titu Maiorescu, Bucureşti.
Graziano, A. & Raulin, M., (1993). Research methods. A process of inquiry. Harper, Publications, London.
Griffith, Arthur,(2007), SPSS for Dummies, Wiley Publishing, Inc. Indianapolis, Indiana.

428
Green. S.B, (1991). „How many subjects does it take to do a regression analysis? ". Multivariate
Behavioral Research. 26. 499-510.
Guilford, J.P., (1965). Fundamental statistics in psychology and education. Mc. Graw University Press.
Harris, R.J. (1985). A primer of multivariate statistics, ed. a II-a. Orlando. F L . : Academic Press.
Haslam, S. A. & McGarty, C. (2004). Research Methods and Statistics in Psychology. London: Sage.
Hinton, Perry R. (2004), Statistics Explained, 2nd Edition, by Routledge, 29 West 35th Street, New York, NY 10001.
Hohn, Mihai, (2007), Metodologia cercetării în psihologie, vol.I, Statistică descriptivă, Editura Universităţii de Vest,
Timişoara;
Howell. D.C. (1997). Statistical methods for psychology, ed. a IV-a, Belmont. CA : Wadsworth.
Howitt, Dennis, Cramer, Duncan, (2006), Introducere în SPSS pentru psihologie, Versiunile 10, 11, 12 şi 13, traducere din
lb. Engleză, Polirom.
Huck. S.W. (2004). Reading Statistics and Research. Reading. MA : Addison-Wesley.
Iluţ, P., (1997), Abordarea calitativă a socioumanului, Polirom.
Jaba, E., Grama, A., (2004), Analiza statistică cu SPSS sub Windows, Polirom.
Kraemer, H.C.; Thiemann,S.,(1987), How many subjects? Statistical power analyses in research, Newbury Park,
CA:Sage.Mayfield Publishing, California.
Mitrofan, N.,(2009), Testarea psihologică, Aspecte teoretice şi practice, Polirom.
Meuris, G.,Zahirnic C.,Davreux, L.,(1977),Analiza factorială,Aplicaţii în ştiinţele sociale, Ediţia a II-a Nerevizuită,
Universitatea din Bucureşti, Facultatea de filozofie, Bucureşti.
Novak, A,(1977), Metode statistice în pedagogie şi psihologie, Editura Didactică şi Pedagogică, Bucureşti.
Novak, A,(1998), Metode Cantitative în psihologie şi sociologie, Editura Oscar Print, Bucureşti.

429
Popa, M., (2008), Statistică psihologică şi prelucrarea computerizată a datelor,Modulul I, Editura Credis, Bucureşti.
Popa, M., (2005), Statistică pentru psihologie, Teorie şi aplicaţii SPSS, Polirom.
Radu, I. & col. (1993). Metodologie psihologică şi analiza datelor. Editura Sincron, Cluj-Napoca.
Radu, I. , Sirbu, C.(2002). Introducere în psihologia experimentala şi metode de prelucrare a datelor. Editura ASCR,
Cluj-Napoca.
Reynolds, R.C., Livingston, B.R., Willson, V., (2006), Measurement and Assessment in Education, Pearson Education, Inc.,
Upper Saddle River, New Jersey.
Rosnow, R.; Rosenthal, R., (1989), „Statistical procedures and the Justification of Knowledge in Psychological
Science”,American Psychologist, octombrie,1276-1284.
Rotaru, T.(coord.),(1999), Metode statistice aplicate în ştiinţele sociale, Polirom
Savu, F., (2004), Analiza datelor în cercetarea psihologică. Metode statistice complementare, Ed. ASCR. Cluj-Napoca.
Sîntion, F., (2005), Metodologia cercetării şi statistica în psihologie, Îndrumare, exerciţii şi aplicaţii, Ed. Muntenia,
Constanţa.
Smith, Milton G,(1971), Ghid simplificat de statistică pentru psihologie şi pedagogie, Ed. Didactică şi Pedagogică,
Bucureşti.
Tabachnick. B.G.: Fideli, L.S. (1996). Using multivariate statistics, ed. a II-a. New York: Harper Collins.
Thompson, B.,(1998), „Statistical Significance and Effect Size Reporting: Portrait of Possible Future”, Research in the
Sschool, 5(2), 33-38.
Urbina, S.,(2009), Testarea psihologică, Ghid pentru utilizarea competent a testelor, Editura Trei, Bucureşti
Vasilescu, I.P.(1991), Statistică informatizată pentru ştiinţele despre om, vol.1, Editura Militară, Bucureşti.
Vasilescu, I.P.(1992), Statistică informatizată pentru ştiinţele despre om, vol.2, Editura Militară, Bucureşti.

430
Wilkinson, L.; Task Force on Statistical Inference, APA Board of Scientific Affairs.(1999).„Statistical methods in psychology
journals:Guidelines and explanations”, American Psychologist,54, 594-604.
Zlate, M.(coord.),(2001), Psihologia la răspântia mileniilor, Polirom.
Surse de documentare pe Internet
EFPA review model for the description and evaluation of psychological tests (Version 3.41: August 2005)http:
wuvv.efpa.be/ .
Asociaţia Psihologilor Americani (APA) : http://www.apa.org
Divizia a-3-a a APA (Psihologie Experimentală):
http://www.apa.org/about/division/div3.html
Societatea Americană de Psihologie: http://www.psychologicalscience.org
Societatea Australiană de Psihologie: http://www.psychsociety.com.au/
Asociaţia Canadiană de Psihologie: http://www.cpa.ca/
Societatea Britanică de Psihologie: http://www.bps.org.uk/index.cfm
Societatea de Neuroştiinţe Cognitive: http://www.cogneurosociety.org
Societatea Germană de Psihologie: http://www.dgps.de/
Asociaţia Internaţională de Psihologie Aplicată: http://www.iaapsy.org/
Un număr important de articole online pe teme de psihologie experimentală şi link-uri la principalele site-uri de
metodologie şi statistică se pot accesa la adresa următoare :
http://www.psychologie.uni-bonn.de/online-documents/lit_ww.htm
Adrese utile pentru documentare în domeniul Metodologiei Psihologice
http://trochim.human.cornell.edu/kb/; http://methods.fullerton.edu/

431

Potrebbero piacerti anche