Home - Rasfoiesc.com
Educatie Sanatate Inginerie Business Familie Hobby Legal
Doar rabdarea si perseverenta in invatare aduce rezultate bune. stiinta, numere naturale, teoreme, multimi, calcule, ecuatii, sisteme


Biologie Chimie Didactica Fizica Geografie Informatica
Istorie Literatura Matematica Psihologie

Informatica


Index » educatie » Informatica
» Q-SORT CA TEHNICA DE CULEGERE A DATELOR


Q-SORT CA TEHNICA DE CULEGERE A DATELOR




Q-Sort ca tehnica de culegere a datelor

1. Introducere

2. Selectia stimulilor

3. Hotararea procedurilor de sortare




4. Probleme legate de distributia Q-Sort-ului. „Clubul metafizic” si legea erorilor

5. Strategie pentru completarea (ordonarea) unui Q-Sort, pasi procedurali

6. Interviurile post-sortare

7. Universul cercetarii. Esantionarea participantilor la studiile Q

8. Fidelitatea ca rezultat al procedurii de sortare. (Semiotica, reificare si implicarea in sarcina)

9. Analiza de item

10. Avantaje si limitari ale Q-Sort

1. Introducere

Sub aspect procedural, privita din punct de vedere exclusiv practic, dezgolita de orice implicatii filosofice, epistemologice, profund metodologice, de validitate, fidelitate etc., metodologia Q este compusa de fapt din doua entitati separate, dar concurente: Q-Sort, care este o tehnica de colectare a datelor, si analiza factoriala Q, care este o procedura de analiza statistica. Desi cele doua pot fi folosite si independent una de cealalta, ele pot fi si combinate, ceea ce permite cercetatorului sa beneficieze atat de avantajele cantitative aduse de Q-Sort, cat si de cele calitative aduse de analiza factoriala.

Q-Sort este o tehnica de culegere a datelor de la subiectii participanti la cercetare, pe baza unui „chestionar” de un tip mai special. Acest „chestionar” poate fi desemnat ca fiind „special” pe baza mai multor particularitati. In primul rand trebuie specificat ca itemii „chestionarului” sunt nu intrebari, ci enunturi. In al doilea rand, subiectii nu trebuie sa evalueze aceste enunturi pe o scala anume, nu trebuie sa le acorde punctaje, nu trebuie sa dea raspunsuri, ci trebuie doar sa clasifice, sa ordoneze itemii in functie de un anumit criteriu indicat de cercetator (de exemplu in functie de preferinte, ori in functie de gradul in care se potriveste enuntul propriilor opinii etc.), de la cel mai potrivit cu criteriul (de ex. cel mai placut) la cel mai putin potrivit cu criteriul (de ex. cel mai neplacut). Desigur ca procedura de selectie a enunturilor comporta si alte particularitati, pe care le vom discuta in continuare, insa acestea doua sunt cele mai evidente si mai generale caracteristici ale unui Q-Sort, care vor fi intalnite in cvasi-totalitatea cazurilor in care se foloseste in cercetare aceasta tehnica de culegere a datelor.

Pentru pregatirea investigatiei Q-Sort propriu-zise cercetatorul are de facut insa niste consideratii care se reflecta asupra tipului stimulilor, marimii chestionarului, formatului datelor culese, timpului de completare etc.:

1.     selectia stimulilor (itemilor)

2.     hotararea unui format anumit pentru sortarea itemilor, determinarea procedurilor de sortare si a instructiunilor pentru participantii la cercetare

2. Selectia stimulilor

Procesul sortarii Q incepe prin aceea ca cercetatorul selecteaza un set de itemi, sau stimuli, care sunt apoi tipariti pe cartoane individuale: fiecare item pe cate un cartonas. Fiecare cartonas contine deci un singur stimul, iar intregul pachet de astfel de cartonase, rezultat din aceasta operatie se numeste de obicei „Q-sort deck”, sau „Q-deck”, datorita asemanarii sale cu un pachet de carti de joc.

Cartile pot contine cuvinte, propozitii, fraze, sau orice alt material ne-semantic: figuri geometrice, culori, fotografii, sunete, muzica etc. Continutul acestor itemi poate veni dintr-o multitudine de surse, dupa cum explicam in partea dedicata teoriei „concourse”-ului elaborata de Stephenson. Se pot folosi astfel extrase din ziare sau jurnale, rezultate ale unor interviuri, structurate sau nestructurate, focus-group-uri etc. Sau, desigur, se pot folosi selectii deja realizate de astfel de stimuli, cum este cazul de exemplu al FAQ (Faculty Approachability Q-Sort), realizat de Denzine & Pulos (1994), sau al GDQ (Group Dynamics Q-Sort), realizat de Peterson, Owens & Martorana (1999).

Un Q-Sort este in principiu ca orice alt test sau chestionar, si ca orice alt instrument de cercetare, itemii cuprinsi in el trebuie sa se supuna rigorilor de validitate si fidelitate. De exemplu (Brown, 1980), daca subiectilor li se va cere sa sorteze cartoane care cuprind enunturi referitoare la parerile lor politice, ar fi necesar ca inainte de orice sa fim siguri ca enunturile respective reflecta intreaga plaja de opinii a respectivilor participanti la cercetare. De asemenea, ca in cazul oricarui alt instrument de culegere de date, itemii Q-Sort trebuiesc sa fie formulati in limbaj cat mai simplu, fara ambiguitati, familiar pentru participantii la studiu, si astfel incat fiecare din ei sa inteleaga acelasi lucru din acelasi enunt.

In ceea ce priveste numarul de enunturi, nu exista o formula universala care sa recomande un anumit numar. Desi unii autori prestigiosi (de ex. Kerlinger, 1986) recomanda un minim de 60 de itemi pentru ca rezultatele sa aiba validitate statistica, Stephenson (1935) a fixat ca singura rigoare in acest sens viziunea sa referitoare la metodologia Q, care printre altele impune si faptul ca itemii constituie un esantion al opiniilor indivizilor (de vreme ce analiza factoriala subsecventa se realizeaza pe indivizi, si nu pe itemi). In consecinta, singura rigoare impusa de chiar Stephenson este aceea a epuizarii pe cat posibil a tuturor opiniilor ce ar putea fi enuntate referitoare la subiectul in discutie. S-au facut astfel cercetari interesante si reusite cu colectii de Q-Sort de doar 20 sau 30 de itemi (de ex. Brown, 1980; Brunner, 1977).

Desigur ca exista si o limita superioara a numarului de itemi ce pot fi prezentati subiectilor spre evaluare. Este de dorit ca acestia sa nu fie asaltati de cateva sute de enunturi, pentru ca intr-o asemenea situatie nu vor putea sa le evalueze in dependenta unul de celalalt. Si, desigur, pot interveni la activitati de sortare prea indelungate variabile precum oboseala, plictiseala, sau pur si simplu refuzul de a mai colabora. Cu toate acestea, in principiu, nu este gresit sa existe mai multe enunturi, iar Q-Sort-ul promoveaza viziunea ca este mai bine sa ai prea multe enunturi, si unele sa fie redundante, decat sa lipseasca enunturi care s-ar putea dovedi ca fiind critice. Acesta este de altfel unul din marile avantaje ale metodologiei Q, conferit acesteia de tehnica statistica a analizei factoriale: enunturile care nu sunt „discriminatorii”, adica nu suscita in vreun fel interesul subiectilor se remarca cu usurinta in tabelul de corelatii si se auto-elimina astfel. Este insa relevant faptul ca aceasta eliminare nu are loc in vreun fel a-prioric, de catre cercetator, in numele unei cunoasteri superioare a problemei sau fenomenului respectiv, ci sunt eliminate statistic, in baza raspunsurilor date de participantii la cercetare.

3. Hotararea procedurilor de sortare

Dupa selectarea itemilor ce vor compune Q-Sort-ul, cercetatorul trebuie sa se hotarasca asupra dimensiunii pe care vor fi evaluate enunturile de catre subiecti. Astfel, cercetatorul poate alege „dezirabilitatea” ca fiind acea manifestare a subiectivitatii care il intereseaza. Intr-un asemenea caz subiectii vor fi rugati sa sorteze itemii pe un continuum „cel mai putin dezirabil” – „cel mai dezirabil”. Dimensiunea de subiectivitate poate lua si alte forme: gradul de placere, gradul de congruenta cu propriile valori, gradul de congruenta cu propriile actiuni intr-o situatie similara etc.

Important este ca dimensiunea selectata sa poata fi cu usurinta inteleasa de catre subiecti, si capetele scalei sa fie in mod clar antinomice, astfel incat subiectii sa nu aiba probleme de sortare a unui enunt (probleme care ar putea sa apara in conditiile in care capetele scalei nu ar fi antinomice, si un enunt ar apare ca nefiind posibil de incadrat in nici o categorie). Dimensiunea respectiva trebuie deci sa se concretizeze intr-un continuum uni-dimensional definit si univoc.

De cele mai multe ori se alege ca dimensiune ori gradul de acord cu enunturile respective, atunci cand ele sunt formulate la persoana intai, ori gradul in care enunturile respective plac, atunci cand sunt formulate neutru, fara referiri la persoane. De exemplu (Brown, 1980), daca dorim sa evaluam perceptiile studentilor despre dezirabilitatea locatiilor din campusul universitar, va realiza un Q-Sort cu toate posibilele locatii din campus, si ii va ruga pe studenti sa le ordoneze in functie de continuumul dezirabilitatii.

O decizie foarte importanta pe care cercetatorul trebuie sa o ia este aceea a formatului in care sa fie selectati itemii. Cercetatorul trebuie, din acest punct de vedere, sa raspunda la doua feluri de intrebari: (a) care vor fi punctele de scalare de pe continuumul pe care se face evaluarea (deci, implicit, si cate astfel de puncte de scalare vor exista), si (b) cati itemi (cate cartoane cu enunturi) vor trebui sa fie repartizati pentru fiecare punct de scalare.

Una din ipotezele fundamentale de la care pleaca orice test sau chestionar „clasic” este aceea a non-interdependentei dimensiunilor, indicatorilor, indicilor si, in cele din urma, a itemilor. Acest fapt se concretizeaza la nivelul construirii scalelor in faptul ca itemii nu trebuie sa coreleze unul cu celalalt. Acest principiu se concretizeaza insa la nivel mai jos intr-o presupunere fundamentala: ordinea in care sunt prezentate intrebarile nu conteaza deloc – desigur cu exceptia situatiilor in care aceasta ordine da nastere la probleme metodologice, cum ar fi de exemplu efectul de halo. Insa in principiu nu este nicidecum important daca itemul 1 sta pe primul loc, ori acest loc este luat de itemul 14, iar itemul 1 se muta pe locul 27, si asa mai departe. Chiar se poate renunta la unul sau altul dintre itemi, fara ca evaluarea facuta de subiectii respondenti celorlalti sa aiba ceva de suferit. Itemii nu sunt dependenti unul de altul.

Spre deosebire de aceasta abordare, colectarea datelor prin Q-Sort este considerata a fi o abordare „ipsativa” („ipsitive”, Davis, 1987; McKeown & Thomas, 1988), ceea ce inseamna ca se refera strict la perceptia subiectului respectiv despre realitate; in plus itemii sunt dependenti unul de celalalt si se inter-relationeaza. Astfel, felul in care un participant la cercetare raspunde la unul din itemi este dependent de felul la care a raspuns la toti ceilalti. Voi plasa un item pe un anumit loc, nu in functie de semnificatia sa, ci in functie de semnificatia sa relativa, fata de felul in care am plasat ceilalti itemi, mai „slabi” (de ex. „placuti”) sau mai „puternici” (de ex. „neplacuti”) decat el.

In plus, nu se cere subiectilor un efort atat de mare incat sa discrimineze chiar intre toti itemii, chiar atunci cand diferenta de semnificatie este foarte mica. De obicei cartoanele nu se ordoneaza pe dimensiunea hotarata astfel incat sa existe exact atatea puncte cate cartoane, ci se fixeaza un numar de puncte de scalare. De exemplu, pentru un continuum de dezirabilitate se fixeaza valoarea –n (de ex. -5) pentru cel mai putin dezirabil item si valoarea +n (de ex. +5) pentru cel mai dezirabil, iar participantii sunt rugati sa plaseze cartoanele in gramezi care sa reprezinte cele 2*n+1 (in exemplul nostru 11) puncte de scalare astfel formate.

Acesta este cazul in care se opteaza pentru ceea ce se numeste un design „echilibrat” sau „simetric”: punctele de scalare „negative”, „indezirabile”, din stanga punctului neutru, sunt la fel de multe precum cele „pozitive”, „dezirabile”, din dreapta acestui punct. Desigur ca pot exista cazuri care sa recomande un design asimetric, insa exista in literatura de specialitate unele dubii asupra utilitatii unui asemenea design, chiar in lumina ipotezei interdependentei itemilor, prezentata anterior (Brown, 1980).

Am descris anterior cazul in care cercetatorul decide in cate puncte de scalare (gramezi) se va face ordonarea itemilor. Este insa perfect posibil ca aceasta hotarare sa fie lasata la latitudinea respondentilor. Trebuie luata deci o decizie asupra felului in care se va face ordonarea: va exista o scalare impusa, sau aceasta va fi libera. Cele doua conditii se regasesc in literatura de specialitate ca fiind „ordonarea impusa” („forced-choice ranking”) sau „ordonarea libera” („free-choice ranking”).

In conditiile in care se opteaza pentru o ordonare libera, participantii la studiu vor putea hotari singuri de cate puncte de scalare (gramezi) au nevoie pentru a-si reprezenta perceptiile asupra subiectului studiat. Astfel, unul din subiecti ar putea sorta cartoanele in cinci gramezi egale ca numar, altul in sase gramezi egale ca numar, iar altul in opt gramezi cu numere diferite de enunturi in fiecare. Avantajul unei abordari libere este acela ca subiectilor li se da libertate totala in constructia reprezentarii realitatii. Insa chiar acesta este si dezavantajul major: este posibil ca subiectii sa ordoneze cartoanele ori intr-un mod foarte polarizat (extrem de negativ / extrem de pozitiv), ori fara a face suficiente distinctii (deci fara o suficienta valoare de discriminare). Si, desigur, cel mai mare dezavantaj al unei ordonari libere este faptul ca se pierde standardizarea inerenta demersului de ordonare fortata.

Dupa cum spuneam insa anterior, cea mai des folosita procedura este cea a controlului distributiei, caz in care cercetatorul prescrie nu doar numarul punctelor de scalare, ci trebuie sa ia si o alta decizie de mare importanta: cati itemi sa fie plasati in fiecare punct de scale, cate cartonase cu enunturi sa fie plasate in fiecare gramada. Putem bunaoara sa-i instruim pe participanti sa plaseze exact zece cartonase in fiecare gramada, sau putem sa-i instruim sa plaseze cate cinci in fiecare gramada cu exceptia celor doua capete ale scalei, in care sa plaseze cate zece etc. Prin specificarea numarului de puncte de scalare si a numarului de itemi care sa fie repartizati pe fiecare din aceste puncte de scalare, cercetatorul influenteaza de fapt distributia statistica a itemilor sortati.

            In imaginea alaturata se poate observa un exemplu de distributie pentru un Q-Sort ce contine 26 de itemi. Scala a fost fixata de la -3, valoare care ar putea semnifica „nepotrivire”, „fals” la +3, valoare care ar putea semnifica „potrivire perfecta”, „adevarat”.

Un lucru interesant si care merita mentionat in mod explicit la acest moment este faptul ca aceasta nu este nici pe departe singura distributie posibila pentru un Q-Sort de 26 de itemi. cercetatorul poate opta fara nici o problema pentru o scalare de la -4 la +4 sau, de ce nu, de la -2 la +2. Si, de asemenea, chiar in cazul unei distributii de la -3 la +3 structura poate fi schimbata astfel incat distributia sa fie usor platikurtica (mai aplatizata, cu o diferenta mai mica intre numarul itemilor din mijloc si cei de pe margini) sau usor leptokurtica (mai boltita, cu o diferenta mai mare intre numarul itemilor din mijloc si de pe margine). Singura autoritate ce hotaraste forma si amploarea distributiei este cercetatorul, care ia aceasta decizie exclusiv in functie de obiectivele sale si nicidecum de proceduri standardizate si de reguli imuabile.

6

5

5

3

3

2

2

-3

-2

-1

0

+1

+2

+3

In mod cert o distributie de la -4 la +4 sau chiar de la -5 la +5 va pune mai putini itemi in fiecare categorie si va obliga evaluatorii la un discernamant superior in ceea ce priveste in special itemii puternic polarizati, ce se plaseaza la capete sau inspre capete. O distributie de acest tip poate avea ca efect pozitiv o evaluare mai fina si diferentieri mai fine intre exact acei itemi care intereseaza in mod deosebit (itemii puternic polarizati) iar ca efect negativ scaderea fidelitatii evaluarii, de vreme ce este posibil ca evaluatorii sa fie fortati la diferentieri pe care in mod normal nu le-ar face.

O distributie pe o scala mai restransa are ca efect pozitiv scaderea efortului depus de evaluatori si deci o scadere subsecventa a timpului necesar pentru aplicare. Un efect negativ evident este faptul ca diferentierile intre itemi nu mai sunt la fel de fine; in plus este posibil ca evaluatorii sa nu fie impulsionati spre diferentieri pe care le-ar putea face relativ usor. De asemenea o distributie mai putin larga atrage dupa sine o crestere a fidelitatii Q-Sort-ului. Aceasta este insa o falsa crestere a fidelitatii instrumentului, obtinuta doar in schimbul renuntarii la valoarea de discriminare a acestuia.

            Fenomene similare sunt semnalate si in conditiile in care amploarea distributiei este tinuta constanta si este modificat doar kurtosisul, boltirea acestei. In distributiile leptokurtice, boltite, se exacerbeaza elementele comune factorilor ce vor fi extrasi, dupa cum vom vedea la capitolul dedicat analizei factoriale de tip Q. De asemenea prin acest artificiu se poate restrange numarul de factori in acele situatii in care numarul factorilor extrasi de analiza este prea mare. Distributiile platikurtice atrag dupa sine o accentuare a acelor elemente care sunt diferite intre viziunile evaluatorilor individuali. Prin acest artificiu se poate mari desigur numarul factorilor extrasi de analiza factoriala; de asemenea se pare ca factorii extrasi din distributii platikurtice sunt mai deosebiti in ceea ce priveste valoarea lor descriptiva, fiind in acelasi timp de cele mai multe ori mai greu de identificat si de interpretat.

Uneori cercetatorul are totusi nevoie cu adevarat de o acoperire a intregului continuum pe care s-a hotarat sa desfasoare scalarea, astfel incat participantilor li se cere sa sorteze toti itemii unul in functie de altul, fara a-i plasa pe gramezi, fara deci a-i considera pe unii similari sau cvasi-similari, si fortandu-i deci pe participanti la diferentieri de nuanta uneori. In aceste conditii sortarea se face in trepte, de obicei li se cere participantilor intr-o prima etapa s sorteze enunturile intr-un numar prestabilit de gramezi, cu un numar prestabilit de itemi, urmand apoi ca in cadrul fiecarei gramezi sa se realizeze o noua sortare etc.

Beneficiul unei abordari etapizate a sortarii este evident, exista probabil un mare numar de potentiali subiecti care ar considera ordonarea a, sa zicem, 100 de itemi, unul in functie de celalalt, ca fiind o sarcina imposibila. Problemele ridicate de abordarea etapizata a sortarii sunt circumscrise faptului ca anumiti participanti la cercetare ar putea considera instructiunile ca fiind prea complicate si prea greu de retinut. Pot ajunge astfel ori la greseli majore de sortare, ori la situatia in care se concentreaza mai mult asupra instructiunilor decat asupra sarcinii propriu-zise (Brown, 1980). In aceste conditii, in care grupul-tinta de participanti ar putea fi susceptibil la probleme de acest gen, ori in care cu adevarat instructajul este complicat, este de preferat ca subiectilor sa li se dea instructajul in scris, astfel incat sa-l aiba la indemana si sa-l poata consulta oricand.

Dorim sa accentuam inca o data ca decizia privind o eventuala conditionare a sortarii ca ordonare impusa sau ca ordonare libera se bazeaza primordial pe dorinta cercetatorului de a avea ca rezultat al procesului de sortare o distributie statistica normala sau cvasi-normala. Atunci cand se opteaza pentru o ordonare impusa distributia rezultata este una normala, de vreme ce participantii sunt instruiti sa plaseze mai putine enunturi in punctele de scalare de la capetele scalelor. Intr-adevar, ca in orice problema de ordonare / clasificare, este de asteptat ca participantii sa aiba doar cateva opinii foarte accentuate, si ceva mai multe opinii neutre sau slab polarizate. Li se cere deci o ordonare a itemilor in asa fel incat distributia rezultata sa reflecte aceasta ipoteza – si regularitate statistica – desemnata de obicei drept „distributie normala”. Avantajele unei distributii fortate sunt deci multiple, si dorim doar sa accentuam aici faptul ca astfel sunt eliminate in Q-Sort toate erorile sistematice de evaluare circumscrise atat erorilor indulgentei si severitatii, cat si erorilor de kurtosis (boltire) sau aplecare a curbei lui Gauss.

4. Probleme legate de distributia Q-Sort-ului. „Clubul metafizic” si legea erorilor

„Clubul metafizic” („The Metaphysical Club”) este numele dat unui grup informal de discutie, format din intelectuali de marca, si care a activat pentru noua luni in 1872 in Cambridge, Massachusetts. Dintre membrii lui, o parte sunt nume rasunatoare pentru stiinta acelor timpuri, cum ar fi de exemplu Oliver Wendell Holmes Jr., Charles Sanders Peirce, William James si Chauncey Wright. Peirce are o importanta deosebita pentru psihologie, prin faptul ca a fost mentorul lui John Dewey, creatorul pragmatismului / instrumentalismului, ca si miscare filosofica si epistemologica. Pentru metodologia Q importanta lui Peirce si a lui Dewey se bazeaza bineinteles si pe aceasta prima incercare de a genera o filosofie bazata pe rolul ideilor si a convingerilor personale in viata indivizilor umani.

Insa motivul fundamental pentru care Peirce este atat de important pentru tema tratata de noi incat sa fie amintit aici, este acela ca in cadrul acestui „club metafizic” a pus bazele a ceea ce avea sa se numeasca mai apoi „legea erorilor”, aspect teoretic si epistemologic de mare interes, de vreme ce avea sa stea la baza alegerii distributiei normale ce caracterizeaza Q-Sort-ul.





Ca fapt divers dorim sa mentionam ca Legea Erorilor, asa cum a fost ea formulata de Peirce se bazeaza puternic pe consideratiile lui Galileo, Laplace si ale altor astronomi, acestia fiind probabil primii care s-au preocupat sistematic de studiul variabilitatii observatiilor. Sigura diferenta este aceea ca Peirce a adoptat o notiune empirica, pragmatica, asupra temei, pe cand precursorii sai s-au bazat pe o notiune esentialista a erorii, in care locul principal era ocupat de convingerea ca trebuie sa existe un fel de ideal platonician al adevarului observat, ideal necontaminat de eroare, restul observatiilor fiind toate contaminate mai mult sau mai putin.

Un arcas ce tinteste mijlocul unei tinte va nimeri de cele mai multe ori departe de centrul real al tintei. Bineinteles ca din mai multe incercari va nimeri in mai multe locuri, toate departate mai mult sau mai putin de centrul real si absolut al tintei. Toate aceste incercari sunt deci viciate de eroare. Daca nu am sti unde anume este centrul tintei, ci doar locatiile in care sagetile au lovit tinta, am putea obtine o estimare a centrului tintei, folosind o formula dezvoltata de Gauss si aplicata pentru prima data in 1795. Formula este deja o banalitate pentru statistica, este regula celor mai mici patrate („least squares”), adica cea mai realista estimare a mijlocului tintei este data de punctul pentru care patratul deviatiilor ar fi minim.

In concluzie acest lucru inseamna de fapt ca ratarile – erorile – nu sunt aleatorii, ci au un caracter determinant si se comporta pe baza unor legi. Raspunsul corect, surprinzator, este o functie a tuturor erorilor. Concluzia lui Louis Menand, poate cel mai important exeget al Clubului Metafizic, este aceea ca „legea erorilor cuantifica subiectivitatea” (p. 183). Acesta este exact motivul pentru care distributia fortata, in forma curbei normale, a fost adoptata ca forma in care sa fie „cuprinsa” subiectivitatea studiata prin Q-Sort.

5. Strategie pentru completarea (ordonarea) unui Q-Sort, pasi procedurali

Datorita ipotezei interdependentei totale a itemilor, care este fundamentala pentru metodologia Q-Sort, este necesar ca subiectul, atunci cand efectueaza ordonarea enunturilor, sa incerce considerarea concomitenta a tuturor comparatiilor posibile. Desigur ca acest lucru este dificil, in conditiile in care un Q-Sort tipic contine 50-80 de itemi. Din acest motiv, subiectilor li se impune o procedura de sortare pe pasi, continuta in instructiunea care de obicei se face si in scris. Procedura de sortare este creata de cercetator bineinteles pe baza designului pentru care a optat: sortare libera sau impusa, pe un anumit numar de puncte de scalare etc.

McKeown & Thomas (1988) au descris felul in care ar suna procedura standard de sortare pentru cea mai des intalnita situatie: un Q-Sort de aprox. 50-80 de enunturi, care se distribuie fortat pe 11 puncte de scalare, de la -5 la +5. Autorii au optat, pentru exemplificare, pentru un design cu o distributie fixa, de 3-4-4-7-7-10-7-7-4-4-3 itemi pe fiecare punct de scalare.

1. Subiectul este rugat sa citeasca pentru inceput toti itemii, pentru a se familiariza cu ei. Dupa aceasta, subiectul sorteaza enunturile in trei seturi: in dreapta sa ii plaseaza pe cei cu care este de acord, in stanga sa pe cei cu care se afla in dezacord, iar la mijloc plaseaza toate acele enunturi fata de care este neutru, ambivalent sau nesigur.

2. Apoi, subiectul desfasoara cartoanele cu enunturi de-a lungul continuumului fixat de cercetator (in cazul nostru [–5, +5]), plasand pe cat posibil enunturile in dreptul punctelor de scalare indicate pe grila, si pastrand pe cat posibil relatia stanga-centru-dreapta intre itemi. Acest lucru faciliteaza citirea contextuala a itemilor si efectuarea comparatiilor.

3. Studiind apoi doar enunturile plasate in partea dreapta a scalei, subiectul ii alege, in conformitate cu distributia indicata, pe cei trei itemi cu care este in cel mai pronuntat acord si ii plaseaza vertical, sub punctul de scalare indicat ca fiind „+5”. Ordinea itemilor plasati in respectivul punct nu este importanta, toate enunturile care se incadreaza la „+5” vor primi acelasi punctaj la prelucrarea datelor.

4. Indreptandu-si atentia spre partea stanga a scalei, subiectul repeta procedura, plasand cei trei itemi cu care este cel mai puternic in dezacord, sub punctul de scalare indicat prin -5. Din nou, ordinea enunturilor in aceasta categorie nu conteaza.

5. Mergand din nou spre partea dreapta a scalei, subiectul alege dintre enunturile ramase nedistribuite cei patru itemi care caracterizeaza cel mai puternic pozitia lui – care bineinteles nu sunt atat de semnificativi precum itemii deja distribuiti la +5. Pe acestia ii plaseaza sub punctul de scalare indicat ca fiind „+4”. Apoi, este indicat ca subiectul sa incerce inca odata sa judece daca acesti patru itemi sunt intr-adevar, comparativ cu cei distribuiti la +4, mai semnificativi. Si, bineinteles, poate sa re-distribuie itemii, in functie de aceasta judecata comparativa.

6. Atentia este din nou indreptata spre partea negativa a scalei si procedura este repetata, dupa care subiectul alterneaza lucrul asupra partii pozitive si negative a scalei, mergand din ambele extreme spre centru. Itemii plasati in centru, sub punctul „0”, sunt de obicei cei ramasi nedistribuiti dupa ce pozitiile negative si cele pozitive au fost acoperite. Motivul pentru care subiectii sunt rugati sa lucreze alternativ pentru capetele scalei este faptul ca astfel sunt obligati sa regandeasca de fiecare data semnificatia fiecarui item, in relatie cu ceilalti. In acest fel, erorile de judecata, daca apar, sunt corectate pe parcurs si subiectul poate face si un reglaj mai fin al opiniilor sale. Dupa completare, Q-Sort-ul ar trebui revazut, iar subiectul este din nou liber sa faca ajustari si redistribuiri ale itemilor.

7. In cele din urma, scorurile Q-Sort-ului sunt inregistrate prin completarea unui chestionar ce reproduce matricea (piramida) ce a fost completata anterior.

            Exista desigur posibilitatea ca in timpul procedurii de sortare participantii la studiu sa sorteze (ori sa doreasca sa sorteze) mult mai multe enunturi in partea cu „acord” decat in partea care desemneaza „dezacordul”. In conditiile unei distributii fortate acest lucru ar duce de fapt la o situatie in care enunturi pozitive sa trebuiasca sa fie asignate unor puncte din scala care desemneaza neutralitatea sau chiar dezacordul. Acest lucru este in principiu in ordine si nu impedimenteaza asupra statisticilor ulterioare, atata timp cat enunturile sortate la polul pozitiv sunt „mai pozitiv” evaluate.

O problema de constructie a Q-Sort-ului poate exista in conditiile in care aceasta problema se manifesta in mod frecvent, ori pentru un numar mare de indivizi. O discrepanta sistematica de acest tip nu poate fi de cele mai multe ori rezolvata caci ea este observata doar in cadrul studiului. Si oricum, in principiu nu este un impediment fundamental. Insa o astfel de discrepanta sistematica ar trebui avuta in vedere in interpretare, trebuind sa fie clar pentru cercetator ca participantii la studiu nu sunt neutri fata de enunturile plasate la zero, ci ele sunt doar mai putin pozitive decat cele scorate pozitiv.

De obicei procedura de sortare debuteaza cu citirea tuturor enunturilor si cu plasarea lor dupa o maniera de evaluare grosiera in trei categorii: principial pozitive, principial neutre si principial negative. Daca cercetatorul observa ca persoana participanta la studiu plaseaza prea multe enunturi intr-una singura din aceste trei categorii (in mod special fiind sensibile aici categoriile extreme), nu este gresit sa se ceara subiectului sa incerce totusi sa isi reformuleze criteriile in asa fel incat sa aiba un numar egal sau aproximativ egal de enunturi in fiecare categorie. In principiu acest lucru usureaza si sarcina subiectului intr-o faza ulterioara, de vreme ce daca dintr-un Q-Sort cu 50 de enunturi subiectul plaseaza initial 40 in categoria „de acord” si cate 5 in categoriile „neutru” si „in dezacord”, este evident ca la un moment ulterior va trebui sa treaca din nou prin cele 40 pentru o re-evaluare.

6. Interviurile post-sortare

Un aspect important in metodologia Q, aspect care contribuie de buna seama la considerarea metodologiei Q drept metodologie calitativa ori calitativ-cantitativa, este accentul pus pe observarea participantilor in timpul operatiunii de sortare si mai ales pe interviurile post-sortare. Observarea subiectilor in timpul sortarii poate da cercetatorului informatii importante despre felul in care este privita principial problema dezbatuta, precum si despre siguranta cu care subiectul se plaseaza pe pozitiile pe care le afirma.

Astfel, un subiect care isi incepe procedura de sortare din partea negativa a scalei are probabil un cu totul alt principiu de considerare a problemei decat un subiect care isi incepe procedura de sortare din partea pozitiva a scalei. De asemenea pot fi astfel trase concluzii referitoare la punctele din scala sau itemii cu care subiectul are dificultati, precum si la gradul sau volumul in care acesta considera ca este necesar sa compare un anumit item cu alti itemi.

Chiar mai importante pot fi interviurile pe care cercetatorul le face cu participantul la studiu la momentul imediat ulterior sortarii. Aceste interviuri sunt nestructurate si se centreaza asupra intrebarilor, optiunilor si clarificarilor pe care subiectul le are fata de opiniile exprimate de el prin intermediul sortarii. Accentele, clarificarile obtinute cu ocazia acestor interviuri sunt de cele mai multe ori indispensabile cercetatorului in faza de interpretare a factorilor si de intelegere coerenta a acestora.

Desigur ca interviurile post-sortare nu sunt obligatorii. Problema care se pune nu este daca metodologia obliga sau nu cercetatorul la aceste interviuri. Dimpotriva, problema care se pune este aceea de a obtine gradul maxim de completitudine in culegerea datelor, in circumstantele date de designul de cercetare. Este desigur o chestiune care trebuie sa tina cont si de resursele necesare interviurilor; de multe ori efectuarea lor ar cere prea mult timp sau prea multe resurse financiare din partea cercetatorului. Insa este ideal ca fiecare procedura de sortare efectuata de catre un participant la studiu sa fie urmata imediat de un interviu care sa ii dea respectivei persoane ocazia de a-si justifica opiniile si de a le elabora.

De buna seama ca interviurile post-sortare pot fi de ajutor pentru a face interpretarile factorilor mai deosebite, mai apropiate de spiritul lor real, mai vii. Insa interviurile pot fi folositoare si in alte modalitati. Uneori se intampla ca unul sau mai multi factori sa fie „tociti”, sa nu aiba semnificatie ori cercetatorul care ii interpreteaza sa nu poata intelege logica interna a fiecaruia. In aceste cazuri interviurile, desi mai primitive din puncte de vedere metodologic decat atat de elaborata tehnica a sortarii si a analizei factoriale, pot aduce exact acea cheie necesara cercetatorului pentru penetrarea opacitatii factorului. De asemenea, asa cum se va discuta intr-unul din capitolele ulterioare, exista posibilitatea ca unele Q-sort-uri individuale sa scoreze pe mai multi factori, iar acestea suscita de asemenea probleme de interpretare in a caror rezolvare interviurile post-sortare pot avea un aport deosebit. Uneori interviurile post-sortare pot ajuta cercetatorul sa clarifice semnificatia unui factor, asa cum se poate intampla bunaoara cu indivizi care au viziuni politice foarte liberale in sortare insa se dovedesc in urma unei analize calitative mai atente prin interviu, a fi de fapt doar conventionali. Ori interviul poate ajuta la distingerea, din toti indivizii ce scoreaza pe respectivul factor, a acelor indivizi care sunt cu adevarat liberali si nu doar conformati unui mediu liberal.

Interviurile post-sortare nu sunt deci obligatorii in vreun sens metodologic. In principiu insa este necesar ca cercetatorul sa aiba in vedere la fiecare moment ca un Q-Sort, oricat de complex ar fi el, nu este de fapt altceva decat o situatie-stimul care este din pacate doar incompleta in a permite indivizilor sa exprime complexitatea semnificativ superioara a propriilor puncte de vedere. Orice studiu – iar studiile Q nu sunt exceptate de la aceasta regula – forteaza participantii in a-si exprima punctele de vedere in mod incomplet, prescurtat, standardizat. De dragul completitudinii este deci de dorit ca interviurile post-sortare sa aiba loc ori de cate ori acest lucru este posibil pentru cercetator.

            7. Universul cercetarii. Esantionarea participantilor la studiile Q

Una din caracteristicile cele mai pregnante ale metodologiei Q este faptul ca studiile Q se rezuma la esantioane mici sau chiar foarte mici de subiecti. Un esantion de 10 persoane nu este neobisnuit in Q-Sort, desi de cele mai multe ori se apeleaza la esantioane de cateva zeci de subiecti. Doar rareori sunt folosite esantioane care trec de 60-70 de participanti din motive mai degraba utilitariste: obiectivele pentru care metodologia Q este folosita sunt atinse perfect si cu esantioane mici, in conditiile in care diversitatea opiniilor este asigurata de cercetator. Acest lucru inseamna ca selectia indivizilor ce participa la studiu trebuie facuta nu pe baza unui algoritm aleator, ci dimpotriva, trebuie sa aiba la baza o selectie si o vanatoare atenta a tuturor persoanelor care sunt susceptibile sa aduca un plus de subiectivitate si opinii noi in studiul respectiv. Orice folosire a unor colectii de date mai mari decat neaparat necesar pentru atingerea acestui obiectiv al diversitatii maxime de opinie, obiectiv subsumat principiului saturatiei teoretice, ar fi pura risipa de resurse, ce nu ar contribui cu absolut nimic la imbunatatirea rezultatelor ori la atingerea superioara a obiectivelor propuse.

Esantionarea, asa cum este ea inteleasa de metodologia Q, se face pe enunturi, pe „stimuli”, iar „populatia” esantionata este discursul relevant al comunitatii cercetate („concourse”). Esantionarea, asa cum este ea inteleasa de stiintele sociale clasice, nu are nici o semnificatie pentru metodologia Q. Aceasta caracteristica a metodologiei Q este greu inteleasa si probabil chiar mai greu acceptata de stiinta „clasica”. Pe de o parte aderarea la aceasta opinie este axiomatica in metodologia Q si rezulta direct din optiunile sale epistemologice, dupa cum vom vedea in continuare. Pe de alta parte exista suficient de multe posibilitati de eludare a criticilor ce tin de inexistenta unei reprezentativitati suficiente.

Lipsa axiomatica a nevoii metodologiei Q de a apela la esantionarea subiectilor

Este important in acest context sa accentuam ca din punct de vedere epistemologic exista o distinctie clara intre generalizare in sensul sau statistic (facuta pe baza unui esantion si concluzionand asupra unei populatii din care respectivul esantion a fost extras) si generalizare in sensul unei abstractiuni de nivel mai inalt. Einstein (xxx), de exemplu, vorbea despre „creatiile libere ale mintii umane” („free creations of the human mind”) si isi declara convingerea ca este o eroare „sa crezi ca teoria vine pe cale inductiva din experienta”. Einstein nu a ajuns la teoria relativitatii pe cale inductiva, prin considerarea unei analize de varianta pe baza unei serii aleatoare de observatii. Si nici Newton nu si-a dedus teoria gravitatii prin considerarea unei serii aleatoare de observatii privind frunze, mere si pene (Brown, 1991). Dimpotriva, aceste legi ale fizicii au fost deduse penetrand prin aparentele de suprafata si nu insumandu-le (Brown, 1991).

Aceste consideratii se aplica desigur la metodologia Q. In primul rand, esantionarea se refera in Q la esantionarea stimulilor („Q sample”) si nu la esantionarea respondentilor, in timp ce metodologia R, metodologia clasica depune eforturi deosebite pentru a asigura dimpotriva reprezentativitatea respondentilor. In clasica diada S-R, stimul-raspuns, putem spune ca metodologia R esantioneaza raspunsul si este preocupat de reprezentativitatea acestuia, pe cand metodologia Q prefera sa esantioneze stimulul si sa fie preocupata de reprezentativitatea acestuia din urma. In acest context trebuie accentuat ca de fapt metodologia de tip R ignora cu gratie problemele legate de reprezentativitatea stimulului ori de puterea de generalizare (din acest punct de vedere) a designurilor de cercetare de tip R.

In al doilea rand, factorii ce rezulta dintr-uns studiu realizat pe baza metodologiei Q sunt ei insisi generalizari, reprezentand o rezultanta a raspunsurilor tuturor indivizilor ce compun un factor. Scorurile factoriale, dupa cum vom vedea, indica ceea ce cred persoanele de acel tip in general. Nici unul din indivizii respectivi nu gandeste exact in acel fel, desi toti (si altii ca ei, de asemenea) gandesc in general in acel fel. Factorul este deci o abstractiune de nivel mai inalt al modalitatilor de gandire ce il compun.

In plus, faptul ca un factor exista este fara doar si poate replicabil, deci generalizabil din acest punct de vedere. Exista in literatura de specialitate mai multe exemple de Q-Sort-uri care au fost readministrate unor esantioane diferite de indivizi si au produs factori similari ori congruenti. Acestea vor fi discutate la momentul oportun, in mod special trebuie insa mentionat faptul ca in studiile de opinie publica factorii rezultati din metodologia Q reprezinta segmente de opinie ce pot fi detectate in mod virtual peste tot, cu orice indivizi.

Ne vedem nevoiti sa facem o precizare foarte importanta: desigur ca o problema majora a designurilor de tip Q care apeleaza la un numar restrans de subiecti este aceea ca de fapt nu putem, fara o reprezentativitate corecta a esantionului de subiecti, sa tragem concluzii generalizabile despre volumele factorilor extrasi, deci despre proportia lor in populatia larga. Insa existenta acestor factori in populatia larga si posibilitatea evidentierii lor viitoare (deci posibilitatea replicarii concluziilor studiului) este indubitabila.

Ca si aspect conex acestor consideratii credem ca ar fi interesant sa fie investigat gradul in care necesitatea demonstrata de psihologie si de stiintele sociale in general pentru uzul statisticilor numerelor mari rezida nu neaparat in nevoia de generalizare, cat intr-o modalitate axiomatic gresita de a gandi problemele cu care aceste stiinte se confrunta si la care li se cere o rezolvare. Numerele mari si designurile de cercetare rezultate din acestea sunt de obicei justificate pe baza conceptiei conform careia fenomenul de interes nu este detectabil cu usurinta in toate cazurile – ceea ce sugereaza de fapt un control incomplet asupra observatiilor si o lipsa de dorinta in a face eforturi suplimentare pentru atingerea unei parcimonii si a unei rigori superioare in exact acest control.

Modalitati de control a esantionarii subiectilor in metodologia Q

Toate aceste consideratii nu inseamna insa ca metodologia Q nu ar putea fi folosita pentru a culege tipul de informatii reprezentative din punct de vedere demografic pe care sociologii le cauta de obicei. Nu putem nega ca stiinta clasica depinde de sondaj si de acel tip de ancheta ce se bazeaza pe esantionare si pe culegerea a cat mai multe date de la cat mai multi subiecti. Beneficiarii cercetarilor s-au obisnuit cu acest tip de design de cercetare si pun semnul egalitatii intre existenta unui astfel de design de cercetare si caracterul stiintific al unei investigatii.

Este adevarat ca sondajul de opinie bazat pe chestionar atrage dupa sine de cele mai multe ori o imagine distorsionata a opiniei publice pe multe din punctele supuse discutiei. Pe de alta parte studiile calitative, singurele care ar putea deveni inlocuitoare tind prin chiar natura lor sa fie mici, efectuate pe esantioane non-reprezentative si de multe ori sa rezulte in informatii greu de interpretat de catre beneficiari. Din acest punct de vedere metodologia Q ar putea fi un inlocuitor valid, daca reuseste se surmonteze problemele reprezentativitatii volumelor factorilor (nu a existentei factorilor, reprezentativitatea acestora fiind oricum clara).

O prima optiune ar fi in acest context aceea de a administra Q-Sort-ul unui esantion voluminos si generat dupa toate regulile unei anchete-sondaj pe baza de chestionar. Exista in literatura de specialitate exemple ale unor astfel de cercetari, de ex. Shields & Cragan (1981), care au administrat 400 de Q-Sort-uri si au calculat praguri de eroare similar unui studiu R clasic, ori Coke & Brown (1976), care au administrat 120 de Q-Sort-uri la insistenta clientului, desi s-a demonstrat ulterior ca cei trei factori rezultati putea fi obtinuti similar cu un efort mult mai mic si cu administrarea a doar 10 sau 15 Q-Sort-uri.

Doran Levy (cf. Brown, 1991) a administrat in studiile sale de marketing enunturi de Q-Sort in format Likert, pe esantioane mari, reprezentative si a realizat pe ele ulterior analize R, folosind algebra matriceala pentru a re-compila scorurile Q si saturatiile in factori. Formulele algebrice folosite sunt continute in Burt (1972). O logica similara, conform carora enunturile unui Q-Sort pot fi tratate pe scale Likert si administrate la esantioane voluminoase, se pare ca anima si cercetarile lui Johnson (1970), care se concentreaza tot asupra unor aspecte ale cercetarilor de marketing.

Din punctul de vedere al principiilor metodologiei Q tratarea aceasta ambivalenta a unui Q-Sort pe baza unor scale Likert este fundamental gresita si bineinteles inacceptabila. Nu vom insista aici asupra motivelor, pe care le consideram evidente, si care se circumscriu faptului ca o astfel de abordare capitalizeaza nu punctele pozitive ale celor doua abordari, ci, dimpotriva, maximizeaza dezavantajele fiecareia.

In ceea ce priveste administrarea unor Q-Sort-uri la esantioane mari, aceasta abordare ar putea fi acceptata de principiile metodologiei Q. Problema care se ridica aici nu este una de contraventie axiomatica, ci de rezultat, caci la un numar de subiecti ce trece de 90-100, factorii devin din ce in ce mai confuzi si mai greu de explicat. De asemenea se modifica volumele acestor factori, existand din ce in ce mai putini indivizi care scoreaza univoc si semnificativ pe un singur factor; se multiplica astfel subiectii ce nu apartin nici unui factor si de asemenea creste numarul cazurilor mixte. Acest aspect ingreuneaza foarte mult interpretarea factorilor, in plus genereaza factori foarte asemanatori intre ei. In plus, nici unul din pachetele statistice folosite in mod curent in analiza factoriala de tip Q nu poate rula analize pe colectii de date ce exced 300 de participanti.

O abordare mult mai justificabila din punctul de vedere al metodologiei Q este cea descrisa de Stephenson (1953) si ea presupune derularea studiului in doua etape: o prima etapa care este un studiu Q desfasurat in mod clasic, avand ca obiectiv principal stabilirea modalitatilor in care audienta este segmentata (cati factori exista, care sunt ei, prin ce se caracterizeaza etc.) iar a doua etapa consta din aplicarea unui chestionar clasic care sa contina enunturi ce au fost desemnate de analiza factoriala ca fiind distinctive pentru factorii izolati in prima faza. Chestionarul din aceasta a doua etapa ar face posibila in urma aplicarii sale identificarea apartenentei fiecarui individ chestionat (dintr-un esantion reprezentativ, desigur) la unul din factorii identificati in prima etapa (Cohen, 1972; Hamilton & Cohen, 1974; Kerlinger, 1961; Richardson, 1968).

Aceeasi optiune metodologica, dar de data aceasta inchinata in exclusivitate metodologiei Q si folosirii Q-Sort-ului propune aplicarea aceluiasi Q-Sort si in faza a doua (deci nu a unui chestionar clasic), pe un esantion reprezentativ dupa toate regulile sociologiei si ale statisticilor numerelor mari, si proiectarea scorurilor acestor Q-Sort-uri in spatiul factorial stabilit in prima etapa a studiului. Aceasta este cea mai completa si mai putin discutabila optiune ce face posibila folosirea concomitenta a metodologiei Q si a consideratiilor clasice referitoare la reprezentativitate si la controlul esantionarii in vederea generalizarii rezultatelor la populatii largi de indivizi.

8. Fidelitatea ca rezultat al procedurii de sortare. (Semiotica, reificare si implicarea in sarcina)

Credem ca este momentul sa aducem in discutie cateva probleme legate de conceptul de fidelitate si de aplicarea sa uneori neortodoxa in metodologia Q.

In teoria masurarii, acceptiunea termenului de „fidelitate” nu a fost aceeasi in decursul timpului. S-a modificat, uneori chiar radical (Pitariu & Albu, 1997) si nici chiar astazi nu se poate vorbi de o opinie unanima a comunitatii stiintifice in ceea ce priveste definirea univoca a fidelitatii masurarii. Initial fidelitatea a fost identificata cu „consistenta si stabilitatea” („consistency and stability”) cu care se realizeaza o masurare (APA Standards, 1954). La acest moment, termenii de „consistenta” si de „stabilitate” continua sa fie utilizati (Pitariu & Albu, 1997), insa accentul se pune la ora actuala pe reproductibilitatea („replicability”) rezultatelor stiintifice, astfel ca definitia actuala data de APA considera ca „fidelitatea este gradul in care scorurile testului sunt coerente si repetabile, adica gradul in care ele nu sunt afectate de erorile de masurare” (APA Standards, 1985).

            Aceasta definitie este suficienta pentru testele psihologice, deci pentru acele instrumente de masurare care se circumscriu traditiei psihometrice in aceea ca incearca sa discrimineze intre un individ si altul. Definitiile de acest tip, si diferitele modalitati de masurare si, respectiv, de estimare, a fidelitatii, care le insotesc, trebuiesc tratate cu multa atentie in actualul context in care anumite ramuri ale psihologiei nu mai tind in a discrimina indivizi, ci se concentreaza asupra altor realitati, fenomene, entitati.

Din punct de vedere operational, fidelitatea este evaluata prin aceea ca subiectii / respondentii sunt constanti in efectuarea sarcinii respective, in timp. Acest lucru se masoara insa in doua modalitati diferite:

o prin serii de timp, si prin subsecventele metode care abordeaza direct problema, motiv pentru care sunt numite metode de masurare a fidelitatii (este cazul metodei test-retest);

o prin metode care evalueaza consistenta cu care mai multi subiecti, la acelasi moment, au varianta comuna in itemii testului; astfel sunt excluse designurile de tip serii de timp, motiv pentru care aceste metode sunt numite metode de evaluare a fidelitatii.

Masurare „clasica” a fidelitati Q-Sort

Trecand peste formalismul tipic mai tuturor discutiilor despre fidelitate, credem ca putem defini din punct de vedere empiric cu suficienta plasticitate fidelitatea unei probe evaluative ca fiind fenomenul in care subiectii sunt constanti in efectuarea sarcinii respective, in timp.

Din acest punct de vedere un Q-Sort are de cele mai multe ori indici de fidelitate extrem de mari. Sunt intalnite mai intotdeauna valori de peste α = 0.7. Aceasta este una din regularitatile curioase ale metodologiei Q, care face ca un instrument, un Q-Sort, sa obtina indici neobisnuit de mari de fidelitate chiar si fara pilotari succesive, analiza de item si alte asemenea modalitati prea bine cunoscute si mult prea agasante pentru cercetatorii din stiintele sociale.

Este important de retinut in acest context ca valorile unei corelatii R nu pot fi comparate direct cu cele ale unei corelatii Q. Atunci cand corelam doua serii de date pe itemi este absolut necesar sa tinem cont de faptul ca acesti itemi pot sa varieze puternic in mediile lor (aceasta fiind o potentiala sursa importanta pentru varianta comuna), pe cand in ceea ce priveste corelarea pe persoane nu avem de-a face cu un concept similar cu relevanta („medie a persoanei” de exemplu). Aceste probleme vor deveni mult mai clare in urma explicatiilor date de Cattell (1966) asupra tipologiilor metodologice Q si R.

La acest moment este important insa sa se inteleaga ca o corelatie de .82 nu poate fi cu adevarat impresionanta daca un anumit Q-Sort, ce caracterizeaza o anumita persoana, nu coreleaza semnificativ mai putin decat .82 cu majoritatea celorlalte structuri, apartinand altor persoane. Corelatia test-retest a q-sort-urilor nu reuseste astfel sa ofere un raspuns cu adevarat coerent in ceea ce priveste precizia masurarii, cu exceptia acelor situatii cand este foarte mica, si cand putem cu adevarat spune ca instrumentul are o problema, de vreme ce de cele mai multe ori se asteapta indici mari de fidelitate.

Informatia suplimentara necesara in acest context este inter-corelatia medie a q-sort-urilor individuale, si aceasta masura este relevanta pentru evaluarea nu a marimii coeficientului de corelatie, ci a semnificatiei acestei marimi. Un scor al unui item, dat de plasarea respectivului item intruna din cele [–n,+n] categorii ale scalei, este in principiu o masura a trei entitati:

  P (persoana), tendinta generala de a fi in acord sau dezacord cu itemii prezenti in Q-Sort;

  I (itemul), „popularitatea” itemului, asa cum este ea reflectata de media evaluarilor sale si care poate fi operationalizata ca dezirabilitate sociala a respectivului item (desi este mai mult decat atata);

  P×I (interactiunea intre persoana si item), care desemneaza felul in care o anumita persoana difera de alta persoane in reactia sa la un anumit item.

Intr-un Q-Sort care apeleaza la distributia fortata, P ca sursa de variabilitate este eliminata prin chiar designul de cercetare. Aceasta ne lasa I si P×I ca surse de varianta si corelatie inter-sort si test-retest. Acest lucru inseamna ca intr-o oarecare masura similaritatea intre doua q-sort-uri, intre evaluarile a doua persoane, reflecta doar diferente intre mediile itemilor. Acest fenomen este ceea ce Cronbach (1951) si Cronbach & Gleser (1953) numeau „similaritate stereotipa” („stereotype similarity”). Daca indivizii nu sunt in mod sistematic in dezacord in reactiile lor la itemi (adica, din punct de vedere operational, daca varianta lui P×I nu este apropiata de zero), toate corelatiile inter-sort-uri vor fi mari, iar corelatia test-retest ori indicele de fidelitate alpha ar fi doar o masura a preciziei cu care este estimat stereotipul.

Pentru a evalua daca un indice test-retest este semnificativ mai mare decat era de asteptat exclusiv ca urmare a similaritatii stereotipe, cel mai indicat este sa comparam acest indice nu cu corelatia medie inter-item, ci cu corelatia medie item-total, care in Q este corelatia intre un anumit Q-Sort si Q-Sort-ul mediu pentru toate persoanele si care este intotdeauna mai inalta. Corelatia medie inter-item este egala cu patratul corelatiei medii item-total, ceea ce inseamna ca de exemplu pentru o corelatie medie inter-item de .22 avem o corelatie medie item-total de .47, care trebuie comparata apoi cu indicele de fidelitate obtinut. Un indice de .82 ar fi in acest context un indice mare si ar demonstra o stabilitate suficienta a componentei P×I. Este evident in acelasi sens ca o corelatie medie inter-item de .45 duce la o corelatie medie item-total de .67 si care comparata cu indicele de fidelitate de .82 nu este deloc atat de mica si exprima o stabilitate scazuta a instrumentului.

Problema expusa aici este o problema care este pusa in termeni similari si pentru studiile facute pe baza unei metodologii R, dar care se amplifica si devine importanta in mod special in studiile Q, in principal datorita faptului ca odata cu fidelitatea mare a Q-Sort-urilor creste din pacate si corelatia medie intre evaluatori si intre itemi. Chiar si in aceste conditii insa fidelitatea Q-Sort-urilor ramane o fidelitate superioara, transformand aceasta metoda de culegere a datelor intr-una puternica si demna de folosit in cercetare.

Aspecte de natura semiotica

Problema fidelitatii contine si o alta sub-problema, si anume nu doar daca subiectii sunt constanti in timp in evaluarea unui item, ci si daca toti subiectii inteleg din acelasi item acelasi lucru, sau, altfel formulat, daca la momente diferite in timp acelasi subiect intelege din acelasi item acelasi lucru.

Din acest punct de vedere, exista o problema de finete legata de constructia enunturilor, asupra careia se poarta multiple discutii de o factura mai degraba filosofica. Este vorba de viziunea asupra limbajului si a semioticii implicate de folosirea acestuia, si problema se reflecta puternic atat asupra etapei interpretative, post-statistice, cat si a celei de aplicare a Q-Sort-ului.

Modalitatea clasica in care se face cercetare in stiintele sociale este cea care nu confera semioticii un statut mai important decat poate cel de ciudatenie: cuvintele, in aceasta acceptiune, sunt privite ca fenomene ferme, chiar reificate. Astfel, cercetatorul ce se plaseaza pe aceste pozitii, presupune ca termenul „introvert” inseamna acelasi lucru pentru toti membrii populatiei, sau, la o scara mai restransa, pentru toti membrii esantionului sau. Exista anumite teste ce pot fi utilizate pentru a confirma cu un anumit grad de siguranta puterea acestei pozitii.

Dar chiar si in fata rezultatelor irefutabile ale unor astfel de teste, exista unele pozitii teoretice asupra problemei semioticii si limbajului, asociate cu cercetarea socio-umana, ce pune sub semnul intrebarii caracterul constant al semnificatiei constructelor (propozitiilor, cuvintelor). Pozitia constructivista, numita uneori in semiotica si „interpretivista”, tinde sa vada cuvintele ca fiind concepte relativ usor sensibile la context. Cu alte cuvinte, in ciuda convingerii subiective ca anumiti termeni sunt constanti in semnificatia prescrisa lor de cei ce ii citesc, un constructivist va pleca intotdeauna de la ideea ca aceste cuvinte fluctueaza in inteles. Fluctuatiile se vor datora unei multitudini de motive contextuale, cum ar fi bunaoara momentul in care cuvantul a fost prezentat, celelalte cuvintele ce apar in jurul acelui cuvant (similar cu fenomenul perceptiei diferite a culorilor, in functie de culorile din zona), experienta personala etc.

Aceasta pozitie constructivista intelege ideea validitatii de construct si a celorlalte mecanisme folosite in stiintele sociale pentru a asigura calitatea cunostintelor, insa nu accepta aceste mecanisme in intregime. Lipsa de griji fata de problema formularii enunturilor este o cu totul alta problema, si nici un cercetator cu capul pe umeri nu va imbratisa o astfel de viziune, insa in mod cert intre viziunea constructivista extrema si viziunea pozitivista extrema sunt destul de multe posibile pozitii intermediare. Ca toti cercetatorii ce adera intr-o mai mica sau mai mare masura la pozitiile constructivismului, credem ca recunoasterea caracterului fluctuant al semnificatiilor atribuite anumitor termeni, nu va aduce decat cresteri in calitatea cercetarilor efectuate sub aceste auspicii.

Q-Sort-ul este o astfel de situatie, plasata pe pozitii puternic constructiviste, si asta in mod declarat inca din start. Ca atare, pozitia preferata a practicienilor in Q-Sort este aceea de a nu incerca sa caute formule perfecte sau cat mai aproape de perfectiune pentru cuvintele pe care le folosesc, ci de a incerca doar sa transmita idei.

Dupa cum spuneam, in Q problema expusa nu este importanta doar in faza de design a instrumentului, cum este cazul in metodologia R. Problema realitatii – sau macar a constantei – semnificatiei cuvintelor re-apare si in faza de analiza a rezultatelor statistice tipice pentru Q. Semnificatia factorilor ce sunt derivati din datele aflate la indemana nu este de la sine inteleasa atunci cand ne plasam pe pozitii constructiviste.

Pentru acei cercetatori care cred ca semnificatia cuvintelor este ferma, analiza ar fi pre-determinata. Am putea, principial, sa tratam fiecare combinatie de enunturi, tipica pentru unul sau altul dintre factori, fara echivoc. Daca adoptam insa o pozitie interpretativa, hermeneutica, asupra cuvintelor, aparitia unor cuvinte langa altele ar afecta semnificatia acelor cuvinte, cu atat mai mult atunci cand acest lucru se intampla in cadrul unui factor – deci in cadrul unei structuri ce arata o anumita regularitate din partea tuturor subiectilor spre respectivul tip de comportament verbal asociativ. In Q-Sort, aceste combinatii novatoare de idei sunt de multe ori cele care aduc cele mai folositoare concluzii pentru cercetator, de vreme ce pot aduce la suprafata combinatii neasteptate ori atrage atentia asupra unor aspecte aparent nesemnificative ale structurii.




Oricum insa masurarea culturii organizationale ridica si cateva probleme suplimentare, pe care le-am tratat la capitolul respectiv. Dorim totusi sa reiteram aici, ca fiind legata de problema fidelitatii instrumentului de masurare, opinia noastra in aceasta problema: cultura organizationala se defineste ca „shared meaning”, deci in conditiile in care un anumit chestionar surprinde diferente majore in perceptii asupra unor lucruri presupune a fi aspecte ce compun cultura organizationala, atunci putem trage o singura concluzie - acel chestionar nu masoara de fapt cultura organizationala. Obiceiul majoritatii chestionarelor de a apela la calcule ce aduc la un numitor comun diferentele individuale, de a opera cu medii bunaoara, este fundamental gresit pentru ca prin echilibrarea si egalizarea opiniilor se distruge exact acel sambure de varianta dupa care ar trebui de fapt sa cautam. Trebuie, in concluzie, atunci cand masuram cultura organizationala prin chestionare, sa cautam varianta comuna, parerile comune, consensul. Nu trebuie sa pierdem din vedere insa ca si aici se ridica o problema metodologica, si anume faptul ca daca avem consens prea unanim asupra unei anumite probleme, este posibil ca itemul respectiv sau scala respectiva sa nu discrimineze suficient de bine.

Insa este evident ca in ceea ce priveste problema fidelitatii chestionarelor ce adreseaza aspecte organizationale (in special cultura organizationala) este de asteptat ca indicii de fidelitate sa fie mari, pentru ca evaluarea subiectilor se refera la aceleasi aspecte vazute in acelasi mod („shared meaning”), deci varianta comuna va fi mare. Singura solutie in acest caz special credem ca este evaluarea comparativa a indicilor de fidelitate nu prin aplicarea la o singura organizatie, ci prin aplicarea la un esantion de organizatii si printr-o subsecventa comparare a scorurilor agregate, pe aceste organizatii. In felul acesta se adreseaza si problema discriminarii anumitor scale.

Implicarea subiectilor in sarcina

Un fenomen interesant si probabil de mare importanta, ce poate de urmarit este acela in care indicii de fidelitate (si erorile de evaluare, atat cele sistematice cat si cele aleatorii, ce duc la scaderea uneori drastica a acestor indici de fidelitate) variaza si datorita gradului de implicare scazut pe care respondentii il au de obicei in completarea chestionarelor. La un chestionar „clasic” dureaza de multe ori cateva minute bune – adica un numar de aproximativ 6-10 intrebari - pana cand subiectul isi calibreaza scala si standardele de evaluare. Se intampla astfel ca un anumit raspuns dat la una din primele intrebari sa i se para subiectului cu doar cateva intrebari mai tarziu ca fiind mult prea sever sau mult prea bland, comparativ cu ultimul sau raspuns. Niciodata insa un subiect nu se va intoarce inapoi pentru a revizui raspunsurile date de el la inceputul chestionarului, in functie de standardele abia acum fixate definitiv. Acesta este si motivul pentru care apare unul din fenomenele des intalnite de cercetatorii obisnuiti cu analiza de item: faptul ca indicii relativi de fidelitate pentru itemii de la inceputul unei chestionar sunt intotdeauna mai mici, datorita insa nu a itemilor in sine, nu a felului in care ei au fost formulati sau scalati, ci chiar datorita fenomenului de cautare incrementala de catre subiecti a unui nivel optim privind sarcinile evaluative cu care se confrunta. Aceiasi itemi, mutati mai spre sfarsitul chestionarului, au de cele mai multe ori indici relativi de fidelitate mult mai buni.

Insa implicarea subiectilor in sarcina de evaluare este de multe ori slaba si datorita faptului ca scalele pe baza carora cercetatorul incearca sa faca evaluarea itemilor nu ii obliga pe subiecti la implicare. Astfel, de mult prea multe ori din pacate, subiectul nu isi aloca suficient timp pentru a judeca exact care este diferenta unui raspuns de 3 fata de un raspuns de 4 pe o scala Likert cu cinci trepte. Scalele Likert au poate chiar din acest motiv o eficienta relativ scazuta, in mod cert invers proportionala cu popularitatea de care se bucura. Evaluarile dihotomice sunt mult mai eficiente, poate chiar din acest motiv. Iar singura imbunatatire gasita de metodologie acestei probleme cu care atat de des folositele scale Likert se confrunta a fost generarea scalelor de evaluare cu ancore comportamentale (SEAP), care sa defineasca empiric punctele de scalare tipice unei scalari lineare de tip Likert.

            Gradul de implicare a subiectilor in sarcina de evaluare a fost operationalizat nu in mod special cu privire la completarea chestionarelor, ci referitor la evaluarea atitudinilor, de catre Asch & Cantril (1947), insa problema poate fi translatata cu usurinta. In principiu, cei doi celebri cercetatori au operationalizat variabila moderatoare a implicarii subiectilor in sarcina evaluativa ca ego-atitudine, iar mai tarziu acest concept a mutat si a devenit „need for cognition”, fiind apoi preluat in marketing si advertising prin Krugman (1956) ca „low-involvement” si „high-involvement”.

            Desi probabil ca masurarea implicarii emotionale si cognitive a subiectilor in sarcinile de completare a unui chestionar este posibila doar cu mare greutate. Este posibil insa ca ea sa fie estimata pe baza consistentei in opinii: opiniile consistente si constante in timp sunt probabil cele asupra carora subiectii au cugetat indelung, deci ele denota implicare puternica. Masurarea acestui tip special de fidelitate se poate face insa in acest caz doar prin test-retest, pentru ca doar aceasta metoda surprinde spiritul problemei si adreseaza direct aspectul ei central; fidelitatea estimata prin varianta semnificatiilor, asa cum fac indicii Cronbach-Alfa sau Lambda-3-Guttman, adreseaza problema altfel si nu va putea surprinde fenomenul descris de noi aici.

Este convingerea noastra ca sarcinile de sortare de tipul Q-Sort sau evaluarea-perechi folosita in PathFinder sau in scalarea multi-dimensionala duc la indici net superiori din acest punct de vedere: indivizii se implica mai mult in sarcina, sunt obligati sa cugete mai mult asupra raspunsurilor si isi asuma mai multa responsabilitate fata de sarcina evaluativa ceruta de la ei. Desigur ca problema necesita o investigare aprofundata, bazata pe un design de cercetare special creat pentru a releva sau a infirma ipoteza enuntata de noi. Daca insa ipoteza va fi confirmata, aceasta va deschide o seama de posibilitati interesante la nivelul metodelor de cercetare in general, si va duce in timp la o considerare mai atenta si mai putin superficiala a relatiei dintre subiectul respondent si instrumentul de cercetare, relatie care sa nu mai presupuna o relatie perfecta intre respondent si instrument, ci sa plece de la presupozitia unei relatii imperfecte, care poate si trebuie sa fie imbunatatita si controlata de cercetator prin metode specifice.

Stabilitatea solutiei factoriale

Trebuie de asemenea specificat ca problematica fidelitatii se pune in contextul metodologiei Q in modalitati distincte de simpla stabilitate statistica estimata pe baza covariantei, modalitati care necesita reintoarcerea la definirea notiunii de „fidelitate”.

Problema stabilitatii masurarii poate fi astfel aplicata la instrument, cand se foloseste Q-Sort, si se iau atunci in considerare rezultatele masurarii, adica seria de date rezultata direct din aplicarea Q-Sort-ului la un anumit numar de persoane. Insa, daca vom considera intregul demers Q ca fiind o masurare, incluzand astfel in acest ansamblu si analiza factoriala de tip Q, ajungem la concluzia ca datele rezultate din aceasta din urma sunt cele care trebuie supuse testului fidelitatii in sensul „stabilitatii” solutiei factoriale.

Aceasta problema va fi discutata in capitolul dedicat analizei factoriale, dorim sa mentionam doar la acest moment faptul ca stabilitatea solutiei factoriale poate fi evaluata cu ajutorul analizei factoriale confirmatoare, analiza care este realizata de un numar restrans de pachete statistice. Pentru stabilitatea solutiilor factoriale rezultate din Q-Sort date raportate informal de diferiti cercetatori si neconfirmate inca in cercetari publicate, plaseaza nivelul minim la .94, ceea ce da un plus de greutate argumentului nostru pentru fidelitatea Q-Sort-ului in special si a metodologiei Q in general.

9. Analiza de item

            Analiza de item are ca obiectiv principal caracterizarea din punct de vedere psihometric a fiecarui item, in vederea cresterii validitatii si fidelitatii instrumentului, prin lucrul asupra itemilor. Aceasta munca aparent suplimentara, insa foarte importanta, asupra numarului itemilor si a alcatuirii lor, se poate face prin excluderea itemilor prea slabi, prin reformularea celor insuficient de puternici etc.

            Analiza de item se desfasoara in modul clasic pe care il prescrie Teoria Raspunsului la Item (IRT, „Item Response Theory”), prin analize statistice ulterioare postularii unei distributii asteptate a raspunsurilor la respectivul item. Analiza de item priveste in consecinta abaterile de la respectiva distributie postulata, privindu-le pe acestea ca fiind expresii ale erorilor de masurare datorate proastei formulari a itemului respectiv (Albu, 1998).

            Bunaoara indicele de discriminare a unui item, ori indicele de fidelitate, ori chiar si indicele de dificultate a unui item, se bazeaza pe postularea unei distributii normale a raspunsurilor la respectivul item, in conditiile absentei erorilor de masurare. In conditiile unei abateri, sa spunem, spre dreapta a curbei lui Gauss, care se interpreteaza in mod traditional ca fiind o expresie a erorii indulgentei, itemul este considerat ca fiind prea usor (prin indicele de dificultate) ori ca sugerand raspunsul corect ori fiind in alt mod dezirabil (prin indicele de discriminare). Analiza statistica se plaseaza deci ca fundament al analizei clasice de item.

            In cazul metodologiei Q, analiza de item nu poate fi desfasurata in aceasta modalitate, deoarece postularea unei distributii normale ce ar trebui sa fie urmata de raspunsurile colectate pentru un anumit item, nu ar fi realista.

            Aceasta diferenta majora fata de teoria clasica a raspunsului la item, provine in principal din structura raspunsului individual la un Q-Sort. Raspunsul la un item al unui Q-Sort este facut numai si numai in stransa si directa legatura cu raspunsurile date de subiect la toti ceilalti itemi. Teoria clasica a testelor este guvernata de ipoteza non-interdependentei itemilor: un subiect raspunde la itemul n indiferent de felul in care a raspuns la itemul n-1. Acesti doi itemi ar putea fara probleme sa fie inversati, fara ca rezultatele returnate de instrumentul respectiv sa fie diferite.

In cazul unui Q-Sort insa ipoteza non-interdependentei itemilor este desueta. Acesta este chiar principiul metodologiei Q: ceea ce conteaza nu este raspunsul absolut la un anumit item, ci incadrarea acestui item intr-o structura si raspunsul global la respectiva structura. In consecinta itemii sunt complet si total dependenti unul de celalalt.

In acest context, avem la dispozitie doua modalitati de a face analiza de item, in cazul metodologiei Q:

(a)   O analiza a acelor itemi care rezulta din analiza factoriala a fi cu mare regularitate sau chiar in totalitatea cazurilor itemi consensuali, itemi care nu discrimineaza intre factori. Daca in mai toate cazurile anumiti itemi sunt itemi consensuali, inseamna ca intensitatea vis-a-vis de structura lor este intotdeauna egala, ceea ce ar fi echivalentul in teoria clasica a raspunsului la item cu „item non-discriminant”. Problema acestui tip de analiza este in primul rand aceea ca este o analiza post-facto: analiza factoriala nu poate fi facuta decat ca ultim pas al cercetarii, si nu exista nici o modalitate de a prevedea care anume itemi vor fi consensuali, fara realizarea anterioara a cercetarii. In al doilea rand particularitatea Q-Sort este chiar aceea ca pentru anumite populatii anumiti itemi nu sunt de importanta, pe cand pentru alte populatii aceiasi itemi ar putea fi obiectul unor clivaje de opinie extraordinare. Acest lucru inseamna ca de fapt nu putem sti cand sau daca un item – chiar si un item care puncteaza cu regularitate ca non-discriminant – nu va fi vreodata, intr-un anumit context au pentru o anumita populatie, un item puternic discriminant.

(b)  O analiza de fidelitate a itemului, care insa nu trebuie sub nici o forma confundata cu indicele de fidelitate al itemului din teoria clasica a raspunsului la item. In teoria clasica a raspunsului la item, indicele de fidelitate al itemului serveste la evaluarea contributiei pe care si-o aduce un anumit item la asigurarea unei bune consistente interne a instrumentului (Albu, 1998). Acest indice de fidelitate este dat de produsul dintre abaterea standard a scorurilor sale si coeficientul de corelatie liniara dintre scorurile itemului si scorurile testului. Insa atat coeficientul de corelatie liniara cat si prezenta in formula a dispersiei scorurilor itemului respectiv se bazeaza pe postulatul distributiei normale a scorurilor itemului, care in cazul unui Q-Sort nu poate fi acceptat. In plus, in metodologia Q nu exista un „scor total al testului”, fata de care sa se estimeze corelatia liniara a itemului. Din toate aceste motive analiza de fidelitate trebuie sa ia alta forma.

Pentru efectuarea totusi a unei analize de item am imprumutat din statistica o tehnica moderna, folosita in principal la evaluarile cu privire la replicabilitatea cercetarilor, esantionare etc. Tehnica se numeste „bootstrap” si desi nu ne propunem sa insistam asupra ei, consideram ca o scurta prezentare este binevenita.

Replicabilitatea rezultatelor unei cercetari este chiar fundamentul pe care se bazeaza metoda stiintifica moderna. Din punct de vedere epistemologic, ipoteza fundamentala ce sta la baza metodei stiintifice moderne si care permite inferenta in ceea ce priveste replicabilitatea unui studiu, este una cvasi-experimentala: rezultatele care nu pot fi reproduse in conditii de cercetare similare cu conditiile in care respectivele rezultate au fost pentru prima data generate, se datoreaza altor cauze decat cele teoretizate de cercetator – deci erorilor.

In psihologia moderna se regaseste din pacate destul de des unul din miturile moderne ale cercetarii aplicate, rezultat din increderea deseori oarba in metodele statistice, privite in principal ca metode de validare. Este vorba de parerea conform careia testele de semnificatie pot indica gradul de replicabilitate ale unui rezultat (Cohen, 1994). Adevarul este ca analizele statistice per se nu ne indica absolut nimic despre posibilitatea replicarii unui rezultat. De vreme ce toate aceste analize sunt corelationale, ele nu pot da indicii decat cu privire la relatiile dintre diferitele variabile (Knapp, 1978). Este evident ca singura modalitate de a evalua posibilitatea de replicare a rezultatelor unei cercetari, fara a repeta efectiv intregul studiu, este efectuarea unei, sa-i spunem, “analize de replicabilitate”.

Interesul major pentru replicabilitate este propriu in primul rand cercetatorilor cu aplecare spre metodologie si in special spre epistemologie. Dupa cum spune Thompson (1996): “Stiinta are ca obiect nu descoperirea si explicarea efectelor, ci descoperirea si explicarea efectelor corecte, deci replicabile. De vreme ce testele de semnificatie statistica nu pot evalua replicabilitatea rezultatelor, este sarcina cercetatorului sa creeze alte strategii, care sa poata evalua replicabilitatea acestor rezultate.

Thompson (1996) afirma in acelasi timp ca refacerea intregului studiu, pe baza altui esantion – abordare numita de el “replicare externa” – este probabil singura modalitate de a masura in mod direct replicabilitatea respectivului studiu. Exista insa o serie de metode de “replicare interna” de care cercetatorul se poate folosi pentru a evalua replicabilitatea rezultatelor cercetarii sale, fara a se deda la risipa de resurse impusa de replicarea externa. Acestea sunt enumerate de metodologii din domeniu (de ex. Thompson, 1996; Kier, 1997) ca fiind: validarea transversala (“cross-validation”), tehnica „plierii” (“Jackknife”) si tehnica „siretului” (“Bootstrap”).

Lasand insa deoparte explicatiile ce decurg din considerente epistemologice, exista si consideratii statistice care mandateaza folosirea metodelor de replicabilitate interna. King (1997), bunaoara, este de parere ca “fiecare esantion selectat dintr-o populatie va fi cel putin cu o catime diferit de orice alt esantion independent, selectat din aceeasi populatie. Este oricand posibil ca doi cercetatori care lucreaza cu esantioane «similare» sa faca inferente teoretice diferite pe baza acelor date.

Este evident, in acest context, ca singura modalitate de a evita erorile datorate esantionarii, este prin refacerea cercetarii pe baza mai multor esantioane din respectiva populatie, deci prin replicare externa. Deci chiar in cazul replicarii externe, cea mai solida din punct de vedere metodologic, doar o singura refacere a cercetarii nu este suficienta, deoarece, asa cum este unanima in a recunoaste literatura de specialitate (de ex. King, 1997; Rotariu, 2000; Rotariu & Ilut, 2001), erorile de esantionare nu pot fi eliminate prin proceduri de esantionare aleatoare, datorita faptului ca toate statisticile calculate pentru respectivul esantion sunt dependente inainte de orice de structura specifica a acestuia.

Fan & Wang (1995) au comparat cele trei metode amintite anterior, pentru a evalua utilitatea lor pentru diferite designuri de cercetare. Se pare ca desi la esantioane mari metodele dau rezultate similare, tehnica “bootstrap” este cea mai indicata atunci cand esantioanele folosite sunt mici. Acesta este motivul pentru care “tehnica siretului” (bootstrap) se preteaza a fi folosita atat pentru studiile bazate pe metodologie Q – de vreme ce principiul esantionarii itemilor si nu a subiectilor rezulta de cele mai multe ori intr-un numar relativ redus de subiecti – cat si pentru studiile organizationale – de vreme ce esantioanele folosite in psihologia organizationala sunt de cele mai multe ori extrem de mici, si nu sunt deloc rare cazurile in care, chiar daca se apeleaza la toti membrii unei organizatii, numarul de subiecti chestionati nu trece de 20-30.

Vom incerca in continuare sa oferim o scurta descriere a tuturor acestor trei metode, cu un accent deosebit asupra metodelor „jack-knife” si „bootstrap”. Metoda validarii transversale va fi tratata ceva mai pe scurt, datorita faptului ca prin particularitatile sale, ea nu se preteaza decat pentru anumite tipuri de analize statistice, dupa cum vom vedea in continuare.

a. Metoda validarii transversale / incrucisate („cross-validation”)

Validarea transversala / incrucisata este o tehnica de estimare a replicabilitatii unui studiu, in care, dupa efectuarea „normala” a calculelor statistice, intregul esantion este apoi impartit in mod aleator in doua sub-esantioane inegale, asupra carora analiza statistica specifica studiului este repetata separat, dar intr-un mod foarte specific (Crossman, 1996). Se folosesc sub-esantioane inegale ca volum, pentru ca cercetatorul sa le poata deosebi unul de celalalt in cursul analizei, de vreme ce particularitatile acesteia fac ca o confuzie sa fie foarte posibila (Kier, 1997).

Intr-o a doua faza – si aceasta este cea mai importanta faza pentru validarea transversala – analiza statistica este repetata pentru fiecare sub-esantion folosind indicii statistici rezultati de la celalalt sub-esantion (Crossman, 1996). Vom calcula deci, bunaoara, scoruri T pentru primul esantion, folosind mediile m si dispersiile σ ale celui de-al doilea, si viceversa. Validarea transversala estimeaza apoi gradul de diminuare („shrinkage”) a coeficientilor finali ai fiecarei analize pe sub-esantioane. Uneori se folosesc si coeficienti compoziti, cum ar fi de exemplu in cazul unui studiu de corelatie, unde patratul corelatiei initiale este comparat cu produsul corelatiilor obtinute din sub-esantioane. Gradul de diminuare, deci diferenta intre analiza initiala si analiza secundara, efectuata pe sub-esantioane, indica replicabilitatea rezultatelor (Osborne, 2000).

b. Metoda „jack-knife”

Jack-knife” este o alta metoda de estimare a replicabilitatii rezultatelor ce poate fi folosita in orice tip de cercetare empirica, desi este in mod special recomandata pentru analize multivariate (Kier, 1997). Tehnica a fost dezvoltata de Quenouille (1949, cf. Kier, 1997) si de Tukey (1958, cf. Kier, 1997). Crask & Perreault (1977) au descris tehnica dupa cum urmeaza: „Esenta abordarii jack-knife este de a partitiona impactul sau efectul unui anumit sub-set de date (cum ar fi de exemplu un caz singular) pe baza unei estimari derivate din totalul esantionului”.

Cu alte cuvinte, tehnica „jack-knife” incearca sa evidentieze care „bucatica” din esantion exercita prea multa influenta asupra rezultatelor, plecand de la ideea ca respectiva influenta poate fi desemnata drept eroare de esantionare.

Daniel (1989) descrie foarte bine felul in care se desfasoara de obicei o analiza „jack-knife”, si vom prezenta aceasta descriere in continuare. In primul rand esantionul este divizat in mai multe sub-esantioane de marimi egale. De obicei aceste sub-esantioane au m (volumul fiecarui sub-esantion) egal cu 1, dar in principiu se poate alege orice marime pentru sub-esantioane, atata timp cat se respecta ecuatia n (volumul total al esantionului) = k (numarul sub-esantioanelor) * m (volumul sub-esantioanelor). Apoi se calculeaza coeficientul statistic dorit, pentru intregul esantion, care este numit de Daniel (1989) „theta-prim”.

Acelasi coeficient statistic este apoi calculat pentru intregul esantion minus unul din sub-esantioane. Aceasta procedura este repetata pentru fiecare sub-esantion, iar valorile obtinute sunt denumite de Daniel (1989) „theta”, si numerotate in functie de sub-esantionul corespunzator. Se calculeaza apoi niste „pseudovalori” („pseudovalues”, Daniel, 1989), prin multiplicarea numarului k de sub-esantioane cu valoarea lui theta-prim, din care se scade apoi k-1 (numarul de sub-esantioane minus 1) multiplicat cu theta. In acest fel rezulta un numar de pseudovalori, cate una pentru fiecare theta, corespunzator fiecarui sub-esantion. Indicele „jack-knife” („jack-knife estimator”) este media aritmetica a acestor pseudovalori (Daniel, 1989).

Dupa calcularea indicelui „jack-knife”, asupra lui se poate lucra cu orice alt procedeu statistic de estimare a semnificatiei: se poate rula un test t sau se pot calcula intervale de confidenta. Prin impartirea indicelui „jack-knife” la eroarea sa standard se obtine o valoare t, cu grade de libertate egale cu k-1. Un indice „jack-knife” este considerat stabil (adica rezultatele care l-au generat sunt mai susceptibile a fi replicabile) daca valoarea sa calculata t, este mai mare decat valoarea t critica (Daniel, 1989).

O ilustrare conceptuala a ceea ce face de fapt tehnica „jack-knife” se poate regasi in ceea ce Kier (1997) numeste „exemplul carnatilor”: „Sa presupunem ca facem carnati, si am facut deja un castron mare, care reprezinta populatia totala pe care o cercetam, si din care vom face esantionul. Sa presupunem ca o ganganie se amesteca din greseala intr-unul din carnati. Gangania reprezinta un subiect extrem de diferit, care exista in populatia ta. Daca extragem un singur carnat, acesta va reprezenta esantionul nostru. Dar sa zicem ca printr-o eroare de esantionare gangania se regaseste exact in carnatul extras de noi. Singurul mod de a depista eroarea este de a taia cu un cutit (jack-knife) carnatul in bucati cat mai mici, pentru a gasi intrusul ”.

Fan & Wang (1995) discuta unele din limitarile metodei „jack-knife”. In conformitate cu viziunea lor, cea mai mare problema cu care tehnica „jack-knife” se confrunta este faptul nu este indicata pentru esantioane mici, de vreme ce tehnica se bazeaza la randul ei pe esantionare, pe ipoteza conform careia divizarea in sub-esantioane va genera diferente sistematice ale rezultatelor. Pentru un esantion de doar 10 sau 20 de subiecti rezultatele fiecarui sub-esantion vor fi oricum atat de diferite incat fiecare ar putea fi considerat ca „diferit” – deci ilustrand o potentiala eroare de esantionare.

Din acest punct de vedere, Fan & Wang (1995) au comparat tehnica „jack-knife” cu tehnica „bootstrap” si au demonstrat ca cele doua tehnici dau rezultate foarte asemanatoare atunci cand esantioanele pe care se aplica au volum mare. Tehnica „jack-knife” insa pare a nu fi indicata atunci cand esantionul este mic. In aceste situatii Fan & Wang (1995) recomanda aplicarea „bootstrap”, pe care o descriem in continuare

c. Tehnica “bootstrap”

Tehnica “bootstrap” pentru determinarea replicabilitatii rezultatelor unei cercetari a fost original formulata de Efron (1979, cf. Thompson, 1995). Thompson (1995) descrie baza conceptuala a acestei tehnici dupa cum urmeaza:

Conceptual, aceasta metoda presupune copierea colectiei de date de mai multe ori intr-o mega-colectie de date, infinit de mare. Din aceasta mega-baza de date se extrag apoi cateva sute sau mii de esantioane diferite, de aceeasi marime cu esantionul initial, iar rezultatele statistice care intereseaza sunt calculate separat pentru fiecare din aceste esantioane. Metoda este puternica pentru ca analiza ia in considerare atat de multe configuratii de subiecti (inclusiv configuratii in care un subiect este reprezentat de mai multe ori, sau nici o data). Astfel cercetatorul poate obtine date cu privire la gradul in care rezultatele sale pot fi generalizate la mai multe tipuri de subiecti.

Desi din punct de vedere conceptual mai degraba simpla, tehnica „bootstrap” este o tehnica foarte puternica, care, din pacate, este dificil de rulat cu programele statistice conventionale. SPSS-ul nu poate rula o astfel de analiza, si programele care pot sa realizeze „bootstrap” sunt de cele mai multe ori dedicate unui anume tip de analiza statistica, cum ar fi de exemplu programul CANSTRAP (Thompson, 1995), dedicat aplicarii „bootstrap” la analiza canonica de corelatie.

Primul pas in efectuarea unei analize „bootstrap” este efectuarea normala a analizei statistice dorite, pe baza de date initiala. Scopul acestei analize initiale este acela de a crea o „functie” ce va fi replicata pentru toate analizele subsecvente. Prin „functie” se intelege o standardizare a tuturor operatiilor ce vor fi rulate, a coeficientilor, rotatiilor etc. Dupa cum accentueaza King (1997) este foarte important ca „functia” sa ramana constanta in toate analizele asupra mega-bazei de date, pentru ca altfel rezultatele nu pot fi comparate in mod legitim. In cazul nostru specific, al analizei factoriale, este absolut necesar ca de fiecare data cand sunt generati coeficienti, acestia sa fie aceeasi. Adica, trebuie aplicata aceeasi rotatie, cu acelasi coeficient de oblicitate pentru fiecare factor, de fiecare data. Sau, mai sigur, nu trebuie aplicate deloc rotatii. Desigur ca in cazul analizelor statistice mai simple, aceasta prescriptie nu este deloc importanta, dar pentru analize complicate, lipsa atentiei in aceasta problema poate vicia puternic rezultatele.

O a doua rigoare in cazul analizei „bootstrap” este aceea ca toate bazele de date secundare, ce rezulta prin esantionare aleatoare din mega-baza a carei generare a fost descrisa anterior, sa fie de acelasi volum ca si baza de date initiala. Thompson (1995) accentueaza aceasta necesitate prin aceea ca numai astfel „se poate mima influenta volumului esantionului”. Nu exista un numar standard de baze de date secundare, si deci nici de analize secundare, insa literatura de specialitate recomanda un numar de „cateva sute” (Kier, 1997).

Replicabilitatea rezultatelor este determinata intr-o ultima faza, in tehnica „bootstrap”, prin compararea, pentru fiecare coeficient statistic rezultat din analiza, a raportului dintre media seriei de date ce reflecta variatia acestui coeficient de-a lungul analizelor secundare, si eroarea standard a respectivului coeficient. daca acest raport este mai mare decat 2, rezultatele probabil ca sunt stabile, sau replicabile.

In concluzie: tehnica “bootstrap” pentru determinarea replicabilitatii rezultatelor unei cercetari presupune copierea colectiei de date de mai multe ori – de cateva sute de ori – intr-o imensa baza de date, din care se extrag apoi cateva sute sau mii de esantioane diferite, de aceeasi marime cu esantionul initial. Se efectueaza separat asupra fiecarei dintre aceste baze la fel de voluminoase dar mai mult sau mai putin similare cu baza initiala, toate calculele statistice ce intereseaza cercetatorul, iar rezultatele sunt apoi comparate atat cu rezultatul initial, original, cat si intre ele.

In acest fel pot fi identificate acele inregistrari din baza de date – acei subiecti deci – care induc erori majore de masurare: bazele de date care nu contin respectivii subiecti au coeficienti de fidelitate mai puternici.

Desi din punct de vedere conceptual mai degraba simpla, tehnica „bootstrap” este o tehnica foarte puternica, care, din pacate, este dificil de rulat cu programele statistice conventionale. SPSS-ul nu poate rula o astfel de analiza, si programele care pot sa realizeze „bootstrap” sunt de cele mai multe ori dedicate unui anume tip de analiza statistica, cum ar fi de exemplu programul CANSTRAP (Thompson, 1995), dedicat aplicarii „bootstrap” la analiza canonica de corelatie. In analiza noastra am folosit un program scris special pentru scopul prezentei cercetari.

Bineinteles ca in felul descris aici tehnica „bootstrap” nu ne poate ajuta nicidecum, pentru ca nu dorim izolarea subiectilor ce induc erori de masurare, ci a itemilor ce induc erori de masurare. Insa daca vom aplica metoda asupra unei baze de date transpuse, astfel incat coloanele sa reprezinte subiecti, si liniile sa reprezinte itemii Q-Sort-ului evaluat, lucrurile devin destul de clare.

In exemplul ce urmeaza, baza initiala a continut 15 subiecti si raspunsurile lor la un Q-Sort de 150 de itemi (Iliescu, 2004). Aceasta baza a fost duplicata si apoi concatenata cu vechea baza de date de 100 de ori, rezultand deci o mega-baza de date cu 15000 de itemi potentiali, asupra carora s-a efectuat bootstrapping-ul. S-au izolat randomizant 300 de baze de date cu 150 de itemi (ca si baza initiala), si au fost efectuate calculele de fidelitate asupra fiecareia dintre aceste noi baze, urmarindu-se prezenta si respectiv absenta anumitor itemi din bazele care au returnat scoruri foarte mari sau foarte mici de consistenta interna.

Tabel rezultat din bootstrap arata dupa cum urmeaza:

Nr. baza

Itemi prezenti mai mult de 3 ori

Itemi tripli

Itemi dubli

Itemi lipsa

α

61

16

101

82, 106, 144

4, 8, 22, 28, 30, 47, 52, 59, 88, 90, 105, 121, 122

.98

62

7, 31, 33

10, 11, 14, 26, 109, 104

1, 3, 5, 9, 16, 24, 25, 28, 29, 30, 32, 49, 51, 56, 57, 59, 64, 73, 99, 107, 115

.79

63

4, 72

5, 9, 50, 71

16, 84, 100

6, 8, 10, 14, 17, 20, 22, 26, 33, 34, 37, 45, 48, 54, 75, 76, 77, 89, 90, 92, 94, 101, 137, 142, 148, 149

.88



            In urma analizei de item au fost identificati 28 de itemi care contribuiau la scaderea coeficientului de consistenta interna a instrumentului, si care in consecinta au fost considerati a fi „itemi slabi”, itemi ambigui sau insuficient de bine formulati. Drept urmare, asupra acestor 28 de itemi am efectuat modificari semantice, iar analiza bootstrap s-a repetat.

            Ne-am folosit de asemenea de o modalitate de cotare si prelucrare statistica a erorilor detectate de bootstrap. Marea problema – si singura de altfel, credem – pe care tehnica bootstrap o ridica, este aceea ca numarul foarte mare de baze de date, care este insasi conditia ca boostrap-ul sa aiba rezultate coerente, face totodata imposibila o privire de ansamblu asupra rezultatelor. Teoretic cel putin erorile de fidelitate detectate de bootstrap pot fi prescrise diferitilor itemi ai chestionarului analizat, pe baza ideii ca itemii care lipsesc dintr-o baza de date, atunci cand aceasta rezulta intr-o fidelitate marita, sunt itemi „slabi”, iar cei care lipsesc atunci cand baza returneaza un rezultat mai slab, sunt itemi „puternici”. Este necesara deci o analiza calitativa a rezultatelor bootstrap-ului pentru a detecta, intre toate bazele care returneaza rezultate pozitive, itemii care lipsesc. Problema care se pune este insa aceea ca este cvasi-imposibila o astfel de analiza pe aproximativ 300 de baze cate au fost create in demersul prezent de bootstrapping. In plus, analiza calitativa subsecventa trebuie sa ia in considerare doi indicatori, separati si care doar cu greutate pot fi concatenati: pe de o parte prezenta sau absenta unui anumit item dintr-o anumita colectie de date, care este o variabila categoriala, dihotomica, cu o distributie binomiala si pe de alta parte masura cu care rezultatul boostrap (fidelitatea colectiei de itemi) se modifica, ceea ce este un indicator continuu, cu o distributie normala. Analiza este si mai mult complicata de faptul ca fiecare baza de itemi poate sa contina de fapt un anumit item nu doar o data, ci de mai multe ori, astfel incat, in conditiile in care bunaoara fidelitate creste, iar un anumit item este continut de doua ori, este posibil ca el sa influenteze in mod pozitiv fidelitatea colectiei de itemi, insa intr-o masura atat de mare doar datorita prezentei sale multiple. Daca ar fi prezent doar o singura data, probabil ca influenta sa ar fi mai scazuta, si acest lucru ar trebui ponderat.

            S-a incercat in consecinta aplicarea unei scheme automate de analiza care sa ia in considerare pe baza unei modalitati de cotare oarecare, atat cresterea si respectiv descresterea fidelitatii colectiei de itemi, cat si indicatorii ce tin de prezenta sau absenta, unica sau multipla, a itemilor. Bineinteles ca schema de analiza poate fi complicata si mai mult, prin ponderarea scorului atribuit pentru itemi si pe baza proportiei cu care creste sau scade fidelitatea colectiei de itemi.

indicele a creste

indicele a scade

itemul nu e continut

- 1

+ 1

itemul e continut o data

+ 1

- 1

itemul e continut de doua ori

+ 1/2

- 1/2

itemul e continut de trei ori

+ 1/3

- 1/3

itemul e continut de mai mult de trei ori

+ 1/4

- 1/4

            Rezultatul consta dintr-un scor obtinut de fiecare item, scor care poate fi sub-unitar ori supra-unitar si care denota gradul de „slabiciune” sau „putere” care poate fi prescris respectivului item pe baza contributiei aduse de acest item la cresterea sau scaderea fidelitatii instrumentului.

Item

Scor

Item 148

18.07

Item 66

16.35

Item 64

15.45

Item 23

12.88

Item 3

12.55

Item 90

12.27

Item 19

11.18

Item 112

10.93

Item 133

0.41

Item 91

0.37

Item 120

0.26

Item 36

-0.14

Item 51

-0.48

Item 106

-0.51

Item 88

-14.79

Item 39

-14.85

Item 111

-14.87

Item 137

-15.23

Item 118

-15.41

Item 110

-16.39

Item 104

-16.64

Item 131

-16.72

            Bunaoara in tabelul de mai sus (Iliescu, 2004) este prezentata o sectiune din prima analiza bootstrap a bazei de date. Se poate desprinde cu usurinta ca itemii 148, 66, 64, 23, 3, 90, 19, 112 sunt itemi „puternici”, itemi care sunt intotdeauna prezenti atunci cand fidelitatea colectiei de itemi selectate prin bootstrap creste. Spre deosebire de ei, itemii 88, 39, 111, 137, 118, 110, 104, 131 sunt itemi „slabi”, itemi ce sunt prezenti de cele mai multe ori atunci cand fidelitatea colectiei de itemi scade.

Itemul 131 in mod special putem afirma ca este „cel mai slab”. Atragem din nou atentia ca acesta este cazul pentru prima pilotare si masurare prin bootstrap. La acel moment itemul 131 era formulat ca „nu prea ma descurc cu salariul”. Formularea este in mod evident ambigua, prin mai multe aspecte. Unele din ele sunt endemice, sunt inerente metodologiei Q si sunt o problema de perceptie, cum ar fi de altfel chiar faptul ca respondentul „se descurca” sau „nu se descurca” cu salariul, fapt eminamente subiectiv, si care depinde de o seama de alte variabile in principial psihologice, motivationale, de expectatie. Insa formularea devine in mod deosebit ambigua prin sintagma „nu prea ma descurc”, care aduce lipsa de claritate chiar in acest domeniu al salariului si al satisfactiei salariale, care de cele mai multe ori constituie cea mai spinoasa si mai problematica problema singulara dintr-o organizatie. Itemul a fost reformulat ca „ma descurc cu greu din salariul pe care il primesc”.

            Itemul 104 de asemenea era un item slab. Initial fusese formulat ca fiind „la sfarsitul programului eu si colegii mei uitam cu totul de munca pe care o facem si ne dedicam altor activitati”. Acest item a trecut prin doua valuri de modificari. Pe de o parte am considerat adecvat sa eliminam sintagma „eu si colegii mei”, in ideea ca ambiguitatea poate proveni de la faptul ca respondentul nu poate evalua in ce masura comportamentul sau este consensual cu al colegilor, sau chiar nu poate evalua in ce anume consta comportamentul colegilor de munca din punctul de vedere evaluat. Itemul s-a transformat drept urmare in „la sfarsitul programului angajatii uita cu totul de munca pe care o facem si ne dedicam altor activitati”. La o analiza bootstrap ulterioara itemul a fost din nou detectat ca fiind „slab” si s-a preferat transformarea lui mai completa, pastrand insa sensul pe care enuntul l-a avut de la inceput, acela de deconectare dupa activitatile de serviciu, de detasare de problemele de la munca. Itemul s-a transformat in consecinta in „la sfarsitul programului angajatii sunt in stare sa se detaseze de problemele de la locul de munca”, forma care este considerata, pe baza indicilor rezultati din bootstrapping, ca fiind satisfacatoare.

10. Avantaje si limitari ale Q-Sort

Un avantaj major al Q-sort, ca tehnica de colectare a datelor, este marea flexibilitate pe care o ofera cercetatorului, in termenii designului de cercetare. Q-Sort-ul poate fi folosit ca tehnica de culegere a datelor in mai toate designurile de cercetare imaginabile: studiu de caz, studiu experimental, cvasi-experimental, longitudinal etc. Metodologii (de ex. Brown, 1980; Jones, Parke & Pulos, 1992) recomanda metodologia Q-Sort in special in investigarea structurilor, proceselor si a schimbarii. Si-a aratat pana in prezent utilitatea in probleme spinoase ale psihologiei contemporane, cum ar fi investigarea atitudinilor, modelelor mentale, hartilor cognitive, a procesualitatii in general si a celei cognitive si organizationale in special etc.

Un alt avantaj al colectarii datelor prin tehnica Q-Sort este acela ca datele pot fi colectate atat individual cat si in situatii sociale. Administrarea in grup este mai eficienta din punctul de vedere al timpului, insa ca la orice alta metoda pot sa apara probleme de dinamica grupala (efect al normei sociale, supunerea fata de autoritatea leaderilor, negociere si consens asupra unor probleme, abdicare de la sustinerea propriei opinii in contextul lipsei ei de dezirabiliate grupala etc.). In plus, rezultatele calitative ce sunt usor de obtinut prin analiza factoriala subsecventa nu pot fi calculate decat dupa o administrare individuala a instrumentului.

Aplicarea individuala aduce cu sine si un alt mare avantaj si anume posibilitatea de observare a felului in care subiectii ataca sarcina ce lise pune. Observarea modalitatilor de grupare si a modului in care se confrunta cu problematica subiectii poate duce la concluzi calitative de mare insemnatate. De exemplu, Denzine & Pulos (1994, 1995) au administrat FAQ (Faculty Approachability Q-Sort) in mod individual la 40 de studenti si au facut observatii detaliate referitor la modalitatea de sortare a fiecarui subiect in parte. Au concluzionat apoi cu claritate ca la toti subiectii comportamentul de sortare se axa pe latura negativa a scalei, care era pentru ei mai usor de judecat. Participantii stiau deci mult mai clar care anume sunt acele dimensiuni care fac o anumita universitate incompatibila cu ei, fara sa fie insa foarte convinsi de motivele pentru care respectiva universitate ar putea fi compatibila cu ei. Studiul lui Denzine & Pulos (1994, 1995) s-a axat in urma acestei concluzii calitative asupra unor interviuri de profunzime asupra chiar acestor cauze pentru care un capat al scalei suscita opinii clare, univoce si celalalt pol nu.

Ca urmare a unor caracteristici generale endemice ale instrumentului, precum si ale situatiei la care un Q-Sort obliga participantii la studiu, printre care cea mai evidenta caracteristica este implicarea superioara a evaluatorilor in sarcina de evaluare, instrumentele tipice pentru investigatiile metodologiei Q au o fidelitate net superioara altor tipuri de instrumente. Fidelitatea superioara este probata atat din punct de vedere tehnic de metodele clasice de evaluare (indici de consistenta interna) ori masurare (test-retest) a acesteia, cat si principial, axiomatic, pe baza replicabilitatii rezultatelor cercetarii (stabilitatea solutiei factoriale).

Ca instrument, Q-Sort-ul, desi nu adera la principiile esantionarii si ale statisticilor ce presupun un volum mare de participanti, poate oferi solutii coerente pentru folosirea sa in acelasi sens ca si orice alt instrument, intr-o investigatie clasica, de exemplu intr-o ancheta-sondaj pe baza de chestionar. De asemenea, ca orice alt instrument, Q-Sort-ul este dezvoltat pe baza unor principii ce tin de formularea itemilor si care sunt subsumate generic analizei de item. La acestea se adauga insa si o seama de principii proprii metodologiei Q, care sunt tipice doar pentru aceasta si care tin de esantionarea stimulilor, inteleasa ca esantionare a discursului relevant al comunitatii cercetate.

In concluzie, dezvoltarea unui Q-Sort este relativ simpla, in conditiile in care sunt urmate toate fazele si principiile prescrise de metodologie. Fixarea modalitpatilor de sortare, hotararea esantionului de participanti si alte aspecte procedurale de acest tip nu sunt nici ele mai complicate decat cele presupuse de o cercetare „clasica”, de tip R. Avantajele aduse insa cu sine de folosirea Q-Sort-ului ca instrument de culegere a datelor sunt extraordinare. Consideram ca este cazul ca pe viitor psihologii in special si comunitatile stiintifice arondate stiintelor sociale in general, sa fie mai deschisi fata de Q-Sort si fata de principiile sale si ca acesta sa fie descoperit ori redescoperit si atras in modalitati tot mai diversificate si mai complexe in cercetarea stiintifica.







Politica de confidentialitate


Copyright © 2019 - Toate drepturile rezervate

Informatica


Access
Adobe photoshop
Autocad
Baze de date
C
Calculatoare
Corel draw
Excel
Foxpro
Html
Internet
Java
Linux
Mathcad
Matlab
Outlook
Pascal
Php
Powerpoint
Retele calculatoare
Sql
Windows
Word


Proiect de atestat informatica - Metoda Backtracking. Problema comis-voiajorului
TIPURI DE CALCULATOARE
PROIECT PENTRU OBTINEREA ATESTATULUI PROFESIONAL INFORMATICA EVIDENTA ANGAJTILOR UNEI INTREPRINDERI
DOCUMENTE ELECTRONICE - definitii, caracteristici si tipologie
Servomecanismele
Sumbultimi si partitii
Backpropagarea inteligenta artificiala
Arhitectura
Convertorul analog numeric
LUCRARE DE DIZERTATIE INFORMATICA APLICATA IN STIINTA, TEHNOLOGIE SI ECONOMIE - RETELE PETRI, INSTRUMENT DE MODELARE